Preisverfolgung für Tmall in Echtzeit – Chinas größte B2C-Onlinehandelsplattform von Alibaba. Zwei Möglichkeiten für den Einstieg: eine vollständig verwaltete Intelligence-Plattform oder ein benutzerdefinierter Scraper, erstellt mit Bright Data's AI Scraper Builder.
Bright Insights ist Bright Data's vollständig verwaltete Plattform für Retail Intelligence. Keine Scraper zu erstellen, keine Infrastruktur zu warten – nur strukturierte, analysebereite Preisdaten, bereitgestellt für Dashboards, Data Feeds oder Ihre BI-Tools.
Warum Teams sich für Bright Insights entscheiden:
- 🚀 Kein Setup erforderlich - In wenigen Minuten live mit sofort einsatzbereiten Dashboards und Data Feeds
- 🤖 KI-gestützte Empfehlungen - Ein konversationeller KI-Assistent verwandelt Millionen von Datenpunkten sofort in umsetzbare Erkenntnisse
- ⚡ Echtzeit-Monitoring - Stündliche bis tägliche Aktualisierungsraten mit sofortigen Benachrichtigungen (E-Mail, Slack, webhook)
- 🌍 Unbegrenzte Skalierung - Jede Website, jede Geografie, jede Aktualisierungsfrequenz
- 🔗 Plug-and-play-Integrationen - AWS, GCP, Databricks, Snowflake und mehr
- 🛡️ Vollständig verwaltet - Bright Data übernimmt Schemaänderungen, Website-Updates und Datenqualität automatisch
Wichtige Anwendungsfälle:
- ✅ Tmall-Preise überwachen über Millionen von SKUs in Echtzeit
- ✅ Wettbewerberpreise verfolgen und Rabattmuster identifizieren
- ✅ Automatisierte Preisanpassung zur Sicherung der Wettbewerbsfähigkeit auf Tmall
- ✅ Einhaltung der MAP-Richtlinien überwachen und Preisverstöße erkennen
- ✅ Werbeaktionen von Wettbewerbern und deren Dynamik verfolgen
- ✅ Saubere, harmonisierte Daten direkt in dynamische Preisalgorithmen oder KI-Modelle einspeisen
Ab $250/Monat - Individuelles Angebot anfordern →
Keine vorgefertigte Tmall Scraper API? Kein Problem. Bright Data's AI Scraper Builder generiert in nur wenigen Klicks einen benutzerdefinierten Tmall Scraper — ganz ohne Programmierung.
Tmall AI Scraper Builder öffnen →
Wählen Sie die Domain, beschreiben Sie Ihre Datenanforderungen, und lassen Sie unseren KI-Scraper-Builder die API automatisch erstellen.
- Datenanforderungen in einfachem Englisch beschreiben
- Die KI generiert sofort die Scraper API
- API-Anfragen ausführen für sofortige Ergebnisse
- Den Code in der integrierten IDE bearbeiten, falls nötig
Sobald Ihr Scraper erstellt ist, erhält er eine Web Scraper ID (gd_xxxxxxxxxxxx) — kopieren Sie sie für den Setup-Schritt unten.
- Python 3.9 oder höher
- Ein Bright Data account (kostenlose Testversion verfügbar)
- Ein Bright Data API token (so erhalten Sie einen)
- Eine Web Scraper ID für Tmall (aus dem obigen Build-Schritt)
-
Dieses repository klonen
git clone https://github.com/bright-data-de/tmall-price-tracker.git cd tmall-price-tracker -
Abhängigkeiten installieren
pip install -r requirements.txt
-
Zugangsdaten konfigurieren
Kopieren Sie
.env.examplenach.envund tragen Sie Ihre Werte ein:cp .env.example .env
BRIGHTDATA_API_TOKEN=your_api_token_here BRIGHTDATA_DATASET_ID=your_dataset_id_here
Ihre Web Scraper ID Fügen Sie die Web Scraper ID aus Ihrem AI Scraper Builder dashboard in
BRIGHTDATA_DATASET_IDein (Format:gd_xxxxxxxxxxxx).
Sobald Ihr Tmall Scraper erstellt wurde und Ihre Web Scraper ID in .env konfiguriert ist, funktioniert die Python-Schnittstelle auf die gleiche Weise:
Übergeben Sie eine Liste von Tmall-Produkt-URLs, um strukturierte Preisdaten abzurufen:
from price_tracker import track_prices
urls = [
"https://www.tmall.com/product/sample-item-123456",
# Add more product URLs here
]
results = track_prices(urls)
for item in results:
print(f"{item.get('title')} - {item.get('final_price', item.get('price'))} {item.get('currency', '')}")Oder direkt ausführen:
python price_tracker.pyFinden Sie Produkte, die einer Keyword-Suche entsprechen:
from price_tracker import discover_by_keyword
results = discover_by_keyword("laptop", limit=50)Sammeln Sie alle Produkte von einer Tmall-Kategorieseite:
from price_tracker import discover_by_category
results = discover_by_category(
"https://tmall.com/category/example",
limit=100,
)Jeder Ergebnisdatensatz enthält die folgenden Felder:
| Field | Description |
|---|---|
url |
Produktseiten-URL |
title |
Produktname / Titel |
brand |
Marke oder Hersteller |
initial_price |
Original- / Listenpreis |
final_price |
Aktueller Verkaufspreis |
currency |
Währungscode (z. B. USD, EUR) |
discount |
Rabattbetrag oder -prozentsatz |
in_stock |
Ob der Artikel verfügbar ist |
rating |
Durchschnittliche Sternebewertung |
reviews_count |
Gesamtzahl der Bewertungen |
seller_name |
Name des Verkäufers |
images |
Array von Produktbild-URLs |
description |
Produktbeschreibungstext |
timestamp |
Zeitstempel der Datenerfassung |
[
{
"url": "https://www.tmall.com/product/sample-item-123456",
"title": "Example Product Name",
"brand": "Example Brand",
"initial_price": 59.99,
"final_price": 44.99,
"currency": "USD",
"discount": "25%",
"in_stock": true,
"rating": 4.5,
"reviews_count": 1234,
"images": ["https://tmall.com/images/product1.jpg"],
"description": "Product description text...",
"timestamp": "2025-01-15T10:30:00Z"
}
]Die Funktion trigger_collection() akzeptiert optionale Parameter zur Steuerung der Datenerfassung:
| Parameter | Type | Default | Description |
|---|---|---|---|
limit |
integer | - | Maximale Anzahl der zurückzugebenden Datensätze |
include_errors |
boolean | true |
Fehlerberichte in die Ergebnisse einschließen |
notify |
string (URL) | - | Webhook-URL, die aufgerufen wird, wenn der Snapshot bereit ist |
format |
string | json |
Ausgabeformat: json, csv oder ndjson |
Beispiel mit Optionen:
from price_tracker import trigger_collection, get_results
inputs = [{"url": "https://www.tmall.com/product/sample-item-123456"}]
snapshot_id = trigger_collection(inputs, limit=200, notify="https://your-webhook.com/hook")
results = get_results(snapshot_id)- 🌟 Tmall Price Tracker - Bright Insights (Managed)
- 🏗️ Einen Tmall Scraper erstellen
- 📖 Bright Data Web Scraper API Documentation
- 🗄️ Web Scrapers Control Panel
- 🔑 So erhalten Sie einen API token
- 🌐 Bright Data Homepage
Erstellt mit Bright Data - der branchenführenden Plattform für Webdaten.