Dein Guide zur neuen Merchant API von Google
    Google Shopping
    Home/Blog/Google Shopping

    Dein Guide zur neuen Merchant API von Google

    Philip Thomisch16 Min. Lesezeit

    Stell dir folgendes Szenario vor: Es ist Black Friday. Dein Shopsystem läuft auf Hochtouren. Um 14:00 Uhr änderst du den Preis deines Bestsellers um 20 %, um mit einem Wettbewerber gleichzuziehen. Dein Shop zeigt den neuen Preis sofort an. Aber dein Google Shopping Feed? Der wird erst heute Nacht um 03:00 Uhr wieder aktualisiert.

    Das Ergebnis ist fatal: Google crawlt deine Landingpage, stellt eine Diskrepanz zwischen dem (alten) Preis in der Anzeige und dem (neuen) Preis im Shop fest und lehnt den Artikel wegen „mismatched price“ ab. Genau in der umsatzstärksten Zeit des Jahres ist dein Top-Produkt offline. Oder noch schlimmer: Der Artikel wird verkauft, obwohl das Lager leer ist, weil der Feed den Bestandsabgleich noch nicht vollzogen hat. Das führt zu Stornierungen, schlechten Bewertungen und im schlimmsten Fall zur Sperrung deines Merchant Centers.

    Das ist kein theoretisches Szenario, sondern der Alltag vieler E-Commerce-Manager, die sich 2026 noch ausschließlich auf statische CSV- oder XML-Feeds verlassen.

    Die Lösung für dieses Latenz-Problem ist die Google Merchant API (früher oft synonym mit der Content API for Shopping verwendet, jetzt aber in einer neuen, vereinfachten Struktur verfügbar). Sie ist der Schlüssel, um von einer reaktiven „Einmal-am-Tag“-Logik zu einer proaktiven Echtzeit-Steuerung zu wechseln.

    In diesem Guide zerlegen wir die Merchant API in ihre Einzelteile. Wir schauen uns an, warum sie die Feed-Datei nicht nur ergänzt, sondern perspektivisch als primäres Steuerungsinstrument ablösen muss, wenn du im modernen E-Commerce konkurrenzfähig bleiben willst.

    1. Feeds vs. API: Ein Paradigmenwechsel im Datenmanagement

    Um den Wert der Merchant API zu verstehen, müssen wir zunächst das veraltete Verständnis von „Produktdaten“ korrigieren. Traditionell betrachten viele Marketer Produktdaten als eine Datei – eine statische Liste, die irgendwo auf einem Server liegt und abgeholt wird.

    Die API ändert diese Sichtweise grundlegend: Produktdaten sind kein Zustand, sondern ein Strom von Ereignissen.

    Das Pull- vs. Push-Prinzip

    Der klassische Feed funktioniert nach dem Pull-Prinzip. Google (der Merchant Center Bot) kommt zu festgelegten Zeiten vorbei und holt sich die Daten. Du hast keine Kontrolle darüber, wann genau die Daten verarbeitet werden. Wenn du um 10:00 Uhr eine Änderung machst und der Bot erst um 16:00 Uhr kommt, hast du sechs Stunden „Blindflug“.

    Die Merchant API nutzt das Push-Prinzip. Dein System (Shop, ERP, PIM) sendet die Information aktiv an Google, sobald das Ereignis eintritt.

    Lagerbestand ändert sich? -> API Call. Preis ändert sich? -> API Call. Titel-Optimierung? -> API Call.

    Die Latenz sinkt von Stunden auf Minuten, oft sogar Sekunden.

    Vergleichstabelle: Statischer Feed vs. Merchant API

    FeatureStatischer Feed (XML/CSV)Google Merchant API
    ÜbertragungZeitgesteuert (z.B. 1x täglich)Ereignisgesteuert (Real-Time)
    RichtungGoogle holt Daten (Pull)Du sendest Daten (Push)
    FehlererkennungZeitverzögert (beim nächsten Fetch)Sofort (im Response des API Calls)
    GranularitätGanze Datei muss oft neu geladen werdenEinzelne Attribute (z.B. nur Preis) änderbar
    KomplexitätGering (Export-Datei erstellen)Hoch (Entwicklung & Wartung nötig)
    SkalierbarkeitBegrenzt (Dateigröße, Parsing-Dauer)Sehr hoch (Millionen Updates möglich)

    Warum die „neue“ Merchant API?

    Vielleicht hast du schon früher mit der „Content API for Shopping“ gearbeitet. Google hat erkannt, dass die alte Struktur für viele Entwickler und Händler zu komplex war. Die neue Generation der Merchant API (Beta und neuere Versionen) zielt auf Vereinfachung ab.

    Das bedeutet nicht, dass sie weniger kann. Im Gegenteil: Sie abstrahiert unnötige Komplexität weg. Früher musste man oft komplexe Batch-Operationen schreiben, um einfache Bestandsupdates durchzuführen. Die neue Struktur, insbesondere im Bereich der „Data Sources“ (dazu gleich mehr), macht die Integration intuitiver. Sie ist darauf ausgelegt, dass Entwickler Features schneller bauen können, um Produkte zu präsentieren, Inventar zu verwalten und Berichte abzurufen.

    2. Die Architektur: Data Sources statt Feeds

    Google führt mit der Modernisierung der API einen Begriffswechsel ein, der extrem wichtig für das Verständnis ist: Data Sources (Datenquellen).

    Vergiss für einen Moment das Wort „Feed“. In der API-Logik denken wir nicht mehr in Dateien, sondern in Quellen, die Daten in das Merchant Center speisen.

    Primäre und Supplementäre Datenquellen programmatisch nutzen

    Die API ermöglicht es dir, eine modulare Datenarchitektur aufzubauen. Anstatt einen riesigen Monolithen (den Hauptfeed) zu haben, der alles enthält, kannst du Datenquellen schichten.

    Primary Data Source: Das ist dein Basis-Datensatz. Er enthält die unveränderlichen oder selten veränderlichen Daten: ID, Titel, Beschreibung, Bild-URL, GTIN. Diese Daten kommen vielleicht aus deinem PIM (Product Information Management) System.

    Supplemental Data Source: Hier liegt die Magie der API. Du kannst eine zusätzliche Datenquelle anlegen, die nur Preis- und Bestandsdaten enthält und diese via API extrem hochfrequent aktualisieren.

    Warum ist das genial? Weil du dein PIM-System nicht zwingen musst, alle 10 Minuten einen vollständigen Export aller Produktdaten zu generieren (was oft gar nicht möglich ist). Stattdessen nutzt du ein schlankes Skript, das nur auf dein ERP oder Shopsystem schaut, Preisänderungen erkennt und diese via API als „Inventory Update“ in eine supplementäre Datenquelle pusht. Google verheiratet diese Daten dann im Merchant Center automatisch.

    Wildcard: Sub-Accounts und Multi-Client Accounts (MCA)

    Für Agenturen und große Unternehmen mit mehreren Marken oder Länder-Shops ist die Account-Struktur in der API entscheidend. Die Merchant API erlaubt den vollen Zugriff auf die Accounts-Ressource.

    Das bedeutet, du kannst programmatisch:

    • Neue Sub-Accounts für neue Mandanten oder Länder erstellen.
    • Benutzerrechte vergeben.
    • Kontoeinstellungen (wie Zeitzone oder Sprache) konfigurieren.

    Stell dir vor, du bist eine Agentur und onboardest einen Kunden mit 50 Ländershops. Manuell im Merchant Center Interface klickst du dich „zu Tode“. Mit einem gut geschriebenen Skript und der API erstellst du diese Struktur, verknüpfst das Google Ads Konto und richtest die Versandzonen innerhalb weniger Minuten fehlerfrei ein.

    3. Feedback-Schleifen: Notifications und Reporting

    Einer der unterschätztesten Vorteile der API ist nicht das Senden von Daten, sondern das Empfangen von Feedback.

    Bei einem klassischen Feed-Upload sieht der Prozess oft so aus:

    1. Upload am Morgen.
    2. Irgendwann am Nachmittag loggt sich ein Junior Marketing Manager ins Merchant Center ein.
    3. Schreckmoment: „Oh, 500 Artikel abgelehnt wegen Bild-URLs.“
    4. Fehlersuche beginnt.

    Mit der Merchant API drehen wir diesen Prozess um. Wir warten nicht, wir lassen uns benachrichtigen.

    Synchrone Fehlercodes

    Wenn du einen API Request sendest (z.B. products.insert), erhältst du sofort eine Antwort (Response). Wenn die Datenstruktur falsch ist (z.B. ungültiges Datumsformat oder fehlende Währung), sagt dir die API das in Millisekunden.

    Das bedeutet, dein System weiß sofort: „Dieser Upload hat nicht geklappt“. Du kannst in deiner Middleware eine Logik bauen, die den Fehler entweder selbst korrigiert oder sofort einen Alert an das Marketing-Team schickt.

    Asynchrone Policy-Updates

    Viel kritischer sind aber Verstöße gegen Google-Richtlinien (Policies), die erst nach dem Crawling festgestellt werden (z.B. „Verstoß gegen Gesundheitsrichtlinien“). Hier bietet die API Endpunkte, um den Status deiner Produkte abzufragen (productstatuses.get oder list).

    Der Pro-Tipp: Bau dir ein Dashboard oder einen Slack-Bot, der einmal täglich (oder öfter) die API nach neuen „Disapprovals“ abfragt.

    Du kannst filtern: „Zeige mir alle Produkte, die gestern noch aktiv waren und heute abgelehnt sind.“

    Das ermöglicht dir, Probleme zu lösen, bevor der CEO merkt, dass der Umsatz einbricht. Du agierst, bevor das Problem in den wöchentlichen Reportings auftaucht.

    Die Bedeutung für Smart Bidding

    Ein weiterer Aspekt, der oft vergessen wird: Die Qualität deiner Daten beeinflusst direkt die Leistung von Smart Bidding (PMax, tROAS). Wenn Google unsicher über die Verfügbarkeit oder den Preis ist, wird der Algorithmus konservativer bieten.

    Durch die Nutzung der API und die garantierte Aktualität der Daten gibst du dem Bidding-Algorithmus das Vertrauen, aggressiver zu bieten. Google „weiß“, dass der Preis, den der User sieht, korrekt ist. Das reduziert die Bounce-Rate auf der Landingpage (weil Preise übereinstimmen) und erhöht langfristig den Quality Score und die Conversion Rate.

    4. Deep Dive: Technische Implementierung & Best Practices

    Warnung vorab: Dieser Abschnitt richtet sich an diejenigen, die wissen, was eine JSON-Payload ist. Wenn du CMO bist, leite diesen Teil an deinen Lead Developer oder Tech-SEO weiter. Wenn du Developer bist: Hol dir einen Kaffee, wir bauen jetzt eine Pipeline.

    Die Integration der Merchant API ist kein Hexenwerk, erfordert aber Disziplin bei der Authentifizierung und der Fehlerbehandlung. Ein schlecht geschriebenes Skript kann dein API-Quota in Sekunden verbrennen oder schlimmer noch: falsche Preise live schalten.

    Schritt 1: Das Fundament in der Google Cloud Platform (GCP)

    Bevor eine Zeile Code geschrieben wird, brauchen wir Zutritt. Die Merchant API ist Teil des Google Cloud Ökosystems.

    • Projekt erstellen: Erstelle ein neues Projekt in der Google Cloud Console. Nenne es eindeutig, z.B. unitedads-merchant-api-connector.
    • API aktivieren: Suche in der API-Bibliothek nach „Content API for Shopping“ (dies ist der technische Backbone für Produkt-Uploads innerhalb der Merchant API Suite) und aktiviere sie.
    • Service Account erstellen: Das ist der wichtigste Schritt.
      • Verwende kein OAuth 2.0 mit User-Login (Client ID). Das ist für Apps gedacht, bei denen sich ein Mensch einloggt. Wir wollen Server-to-Server-Kommunikation.
      • Erstelle einen Service Account. Das ist ein technischer User, der deinen Server repräsentiert.
      • Lade den JSON-Key herunter und speichere ihn sicher. (Achtung: Dieser Key ist der Generalschlüssel. Lade ihn niemals in ein öffentliches GitHub-Repo!).
    • Entscheidender Schritt: Nimm die E-Mail-Adresse des Service Accounts (sieht aus wie service-account-name@project-id.iam.gserviceaccount.com) und füge sie in deinem Google Merchant Center unter „Personen und Zugriff“ als Nutzer hinzu. Gib ihm „Admin“- oder „Standard“-Rechte. Ohne diesen Schritt wird jeder API-Call mit einem 403 Forbidden abgelehnt.

    Schritt 2: Die Client Libraries nutzen (Don't reinvent the wheel)

    Versuche nicht, die rohen HTTP-Requests selbst zu bauen (requests.post(...)). Die Authentifizierung und das Token-Management sind schmerzhaft. Google bietet exzellente Client Libraries für Python, Java, PHP und mehr.

    Wir nutzen für dieses Beispiel Python, die Sprache der Datenverarbeitung.

    Bash
    pip install google-api-python-client google-auth

    Schritt 3: Der Code – Produkte pushen (Insert)

    Das Herzstück der Automatisierung ist die products.insert Methode. Sie fungiert als „Upsert“: Wenn das Produkt nicht existiert, wird es angelegt. Wenn es existiert, wird es überschrieben.

    Hier ist ein vereinfachtes, aber funktionales Python-Gerüst für einen Produkt-Upload:

    Python
    from google.oauth2 import service_account
    import googleapiclient.discovery
    
    # Konfiguration
    KEY_FILE = 'path/to/your/service-account-key.json'
    MERCHANT_ID = 123456789 # Deine Merchant Center ID
    
    # Authentifizierung
    credentials = service_account.Credentials.from_service_account_file(
        KEY_FILE, scopes=['https://www.googleapis.com/auth/content'])
    
    # Service bauen (Wir nutzen v2.1, den aktuellen Standard)
    service = googleapiclient.discovery.build('content', 'v2.1', credentials=credentials)
    
    # Die Produkt-Daten (Payload)
    product_data = {
        'offerId': 'SKU-1001-BLUE', # Deine interne ID
        'title': 'UnitedAds Premium Hoodie - Navy Blue',
        'description': 'Der ultimative Hoodie für Performance Marketer. 100% Baumwolle.',
        'link': 'https://www.unitedads-shop.de/hoodie-blue',
        'imageLink': 'https://www.unitedads-shop.de/images/hoodie-blue.jpg',
        'contentLanguage': 'de',
        'targetCountry': 'DE',
        'channel': 'online',
        'availability': 'in stock',
        'condition': 'new',
        'googleProductCategory': 'Apparel & Accessories > Clothing > Shirts & Tops',
        'price': {
            'value': '49.99',
            'currency': 'EUR'
        },
        'shipping': [{
            'country': 'DE',
            'service': 'Standard',
            'price': {'value': '4.95', 'currency': 'EUR'}
        }]
    }
    
    try:
        # Der eigentliche API Call
        request = service.products().insert(
            merchantId=MERCHANT_ID,
            body=product_data
        )
        result = request.execute()
        print(f"Produkt {result['id']} erfolgreich aktualisiert.")
    
    except Exception as e:
        print(f"Fehler beim Upload: {e}")

    Was passiert hier? Wir definieren ein Dictionary (product_data), das exakt die Attribute abbildet, die du sonst in deinem Feed hast. Sobald request.execute() läuft, sind die Daten bei Google. Im Gegensatz zum Feed-Upload, der erst verarbeitet werden muss, ist dieser Datensatz sofort im System bekannt (auch wenn das Crawling und die Richtlinienprüfung noch ein paar Minuten dauern können).

    Schritt 4: Die Kunst des „Partial Update“ (Inventory Resource)

    Ein häufiger Fehler: Für eine einfache Preisänderung wird der komplette Produktdatensatz (inkl. Beschreibung, Bilderlinks etc.) neu gesendet. Das ist ineffizient.

    Für reine Preis- und Bestandsupdates bietet die API spezialisierte Methoden, oft als inventory Resource bezeichnet (oder im Kontext von Local Inventory Ads als localinventory).

    Wenn du nur den Preis ändern willst, sieht die Payload schlanker aus. Das reduziert die Datenlast enorm, wenn du beispielsweise alle 15 Minuten 10.000 Preise aktualisierst.

    Hinweis: Bei der Content API v2.1 kannst du für Online-Produkte oft auch die products.insert nutzen, indem du nur die nötigen Felder sendest, aber sauberer ist es, logisch zwischen „Full Update“ (Produkt ändert sich grundlegend) und „Transactional Update“ (Preis/Stock ändert sich) zu trennen.

    Schritt 5: Batching – Performance für den Massenmarkt

    Einen API-Call pro Produkt zu machen, ist bei 50.000 Artikeln tödlich langsam. Die Netzwerklatenz (Round-Trip-Time) wird dich ausbremsen.

    Die Lösung heißt custombatch.

    Anstatt:

    Request -> Warten -> Response

    Request -> Warten -> Response

    Machst du:

    1. Sammle 1.000 Produkt-Updates in einem Paket.
    2. Sende einen HTTP-Request an den custombatch-Endpoint.
    3. Erhalte eine Liste von 1.000 Antworten zurück.

    Google erlaubt Batches mit bis zu 1.000 Einträgen. In der Praxis steigert das die Upload-Geschwindigkeit um den Faktor 10 bis 50.

    Code-Logik für Batching:

    Python
    batch = service.new_batch_http_request(callback=my_callback_function)
    
    for product in products_list:
        batch.add(service.products().insert(merchantId=MERCHANT_ID, body=product))
    
    batch.execute()

    Das callback ist hier entscheidend: Es verarbeitet die Antwort für jeden einzelnen Eintrag im Batch. So weißt du genau, welches Produkt im Batch erfolgreich war und welches fehlgeschlagen ist.

    Schritt 6: Fehlerbehandlung und Quotas (Der „Exponential Backoff“)

    APIs haben Limits. Google schützt seine Infrastruktur durch Quotas (z.B. X Requests pro Minute). Wenn du diese Grenze überschreitest, erhältst du keinen harten Fehler, sondern oft einen 429 Too Many Requests oder 503 Service Unavailable.

    Der Amateur bricht hier ab oder hämmert sofort den nächsten Request raus (was zur Sperrung führt). Der Profi nutzt Exponential Backoff.

    Das Prinzip:

    • Request schlägt fehl.
    • Warte 1 Sekunde -> Retry.
    • Schlägt fehl -> Warte 2 Sekunden -> Retry.
    • Schlägt fehl -> Warte 4 Sekunden -> Retry.
    • Schlägt fehl -> Warte 8 Sekunden -> Retry.

    Die Google Client Libraries haben dies oft schon eingebaut, aber du solltest sicherstellen, dass deine Skripte robust genug sind, um Netzwerkschwankungen auszusitzen, ohne abzustürzen.

    Das war der technische Maschinenraum. Wir haben jetzt eine Pipeline, die Daten authentifiziert, formatiert und effizient an Google pusht. Aber Technologie ohne Strategie ist nur Kosten.

    Im nächsten und letzten Teil schauen wir uns die konkreten Use Cases an, die mit dieser Technik möglich werden: Wie du Flash Sales steuerst, wie du lokale Bestände für ROPO (Research Online, Purchase Offline) nutzt und wie du die Migration vom XML-Feed zur API planst, ohne deinen Umsatz zu gefährden.

    5. Strategische Anwendungsfälle: Geld verdienen mit Millisekunden

    Technologie ist Mittel zum Zweck. Die Tatsache, dass wir Daten in Millisekunden an Google senden können, ist irrelevant, wenn wir daraus keinen strategischen Vorteil ziehen.

    Hier sind drei konkrete Szenarien, in denen die Merchant API dir einen unfairen Vorteil gegenüber Wettbewerbern verschafft, die noch mit statischen Feeds arbeiten.

    Use Case A: Aggressives Dynamic Pricing ohne „Policy Nightmares“

    Im hart umkämpften Elektronik- oder Fashion-Markt ändern sich Preise oft mehrmals täglich. Amazon macht es vor, viele ziehen nach.

    Das Problem mit Feeds: Du senkst den Preis für einen Laptop von 999 € auf 899 € in deinem Shop. Dein Feed läuft aber erst in 6 Stunden.

    • Szenario 1: Google zeigt noch 999 € in der Anzeige. Der User klickt, sieht im Shop 899 €. Er freut sich und kauft. Aber: Du hast für einen Klick bezahlt, der auf einem schlechteren Preis basierte (niedrigere CTR).
    • Szenario 2 (Viel schlimmer): Du erhöhst den Preis wieder. Die Anzeige zeigt 899 €, der Shop 999 €. Der User fühlt sich betrogen und springt ab. Schlimmer noch: Der Google Bot crawlt die Seite, bemerkt den Unterschied und sperrt das Produkt wegen „Price Mismatch“.

    Die API-Lösung: Dein Repricing-Tool ändert den Preis im Shop-Backend. Im selben Moment triggert dieses Event einen API-Call (inventory.set), der den neuen Preis an Google pusht. Die Latenz zwischen Shop und Google Shopping tendiert gegen Null. Du kannst Flash-Sales für 2 Stunden fahren, ohne Angst vor Sperrungen haben zu müssen.

    Use Case B: Margen-gesteuerte Gebotsstrategien (Profit Bidding)

    Die meisten Händler übergeben statische Produktpreise. Clevere Händler nutzen die API, um Custom Labels dynamisch zu steuern.

    Stell dir vor, dein Einkaufspreis für ein Produkt schwankt. Deine Marge ändert sich also täglich, auch wenn der Verkaufspreis gleich bleibt. Mit einem statischen Feed ist es mühsam, das „Custom Label 0“ (z.B. für Margen-Cluster) aktuell zu halten.

    Mit der API kannst du eine Logik bauen:

    • Wenn Marge > 30%: Setze Custom Label 0 auf „High_Margin“.
    • Wenn Marge < 10%: Setze Custom Label 0 auf „Low_Margin“.

    Dieses Update pusht du via API sofort an Google. Deine PMax- oder Shopping-Kampagne, die auf diese Labels optimiert, passt sofort die Gebote an. Du bietest automatisch aggressiver für Produkte, die dir heute mehr Gewinn bringen, und ziehst Budget von Produkten ab, deren Einkaufspreis gerade gestiegen ist. Das ist Profit Maximization in Echtzeit.

    Use Case C: Local Inventory Ads (LIA) und BOPIS

    „Buy Online, Pick Up In Store“ (BOPIS) steht und fällt mit der Datenqualität. Nichts frustriert einen Kunden mehr, als in den Laden zu fahren, weil Google gesagt hat „Auf Lager“, nur um vor einem leeren Regal zu stehen.

    Die Merchant API bietet spezielle Endpunkte für Local Inventory. Du kannst den Bestand pro Filiale (Store Code) in Echtzeit aktualisieren. Wenn das letzte Paar Schuhe in der Filiale München verkauft wird, sendet dein Kassensystem ein Signal. Die API setzt den Bestand für diesen Store Code auf 0. Die Anzeige für „Verfügbar in München“ verschwindet sofort. Du sparst Klickkosten und verhinderst Kundenfrust.

    6. Migration: Der sichere Weg vom XML-Feed zur API

    Niemand sollte sein laufendes System von heute auf morgen abschalten ("Big Bang Migration"). Das Risiko ist zu hoch. Der smarte Weg ist der hybride Ansatz.

    Phase 1: Der API-Layer als Ergänzung (Supplemental Data)

    Du behältst deinen bestehenden XML-Feed als Primary Data Source. Er liefert weiterhin Titel, Beschreibungen, Bilder und GTINs. Diese Daten ändern sich selten. Du baust die API-Anbindung nur für Preis und Verfügbarkeit. Diese sendest du als Supplemental Data Source (Ergänzungsquelle).

    • Vorteil: Wenn deine API ausfällt, hat Google immer noch die Daten aus dem Hauptfeed (auch wenn diese vielleicht ein paar Stunden alt sind). Das Produkt verschwindet nicht komplett.
    • Vorteil: Du reduzierst die Komplexität des ersten API-Projekts drastisch, da du nur zwei Felder (price, availability) mappen musst.

    Phase 2: Content-Optimierung via API

    Sobald Phase 1 stabil läuft, beginnst du, Produkttitel und Beschreibungen via API zu aktualisieren. Das ist besonders für SEO-Teams spannend, die A/B-Tests mit Titeln machen wollen, ohne auf die IT-Abteilung für einen Feed-Rebuild warten zu müssen.

    Phase 3: „API First“

    Der XML-Feed wird abgeschaltet oder dient nur noch als absolutes Notfall-Backup. Dein PIM/Shop ist nun die einzige Quelle der Wahrheit (Single Source of Truth) und kommuniziert direkt mit Google.

    7. Fazit & Ausblick: Wer jetzt nicht automatisiert, verliert

    Die Google Merchant API ist keine technische Spielerei für Entwickler. Sie ist eine strategische Infrastrukturmaßnahme für jedes E-Commerce-Unternehmen, das skalieren will.

    Wir bewegen uns auf einen Markt zu, in dem Algorithmen gegen Algorithmen bieten.

    • Dein Repricing-Algorithmus gegen den des Wettbewerbers.
    • Dein Bidding-Algorithmus (Smart Bidding) gegen den Rest der Welt.

    Diese Algorithmen brauchen Treibstoff: Daten. Je frischer, genauer und granularer diese Daten sind, desto besser sind die Entscheidungen, die die KI für dich trifft. Ein XML-Feed von letzter Nacht ist wie eine Zeitung von gestern – informativ, aber für den Börsenhandel nutzlos.

    Was du jetzt tun musst:

    • Audit: Prüfe deine aktuelle „Time-to-Live“. Wie lange dauert es von einer Preisänderung im Shop bis zur Sichtbarkeit auf Google? Wenn die Antwort „länger als 15 Minuten“ ist, hast du Handlungsbedarf.
    • Ressourcen klären: Sprich mit deinem Entwicklungsteam oder deiner Agentur. Zeige ihnen diesen Artikel. Die Hürde für den Einstieg (Service Accounts, Python Libraries) ist niedriger als oft angenommen.
    • Pilotprojekt: Starte nicht mit dem gesamten Sortiment. Nimm deine Top-100 „Schnelldreher“-Produkte und binde diese via API an eine supplementäre Datenquelle an. Miss den Uplift in der Datenqualität und die Reduktion der „Disapprovals“.

    Cookie-Einstellungen

    Wir nutzen Cookies, um dein Erlebnis zu verbessern und unsere Dienste zu optimieren. Du kannst wählen, welche Cookies du akzeptieren möchtest. Mehr erfahren