Zwei gleichwertige Wege liefern denselben Rohstoff: strukturierte Stammdaten und beliebige Inhalte aus Web, Portalen und Dokumenten.
Kernpunkte
- Stammdaten aus ERP und weiteren Datenquellen synchronisieren (beliebige Datentiefe)
- Eigene Scraping-Bots sammeln und aktualisieren Inhalte nach Regeln (pro Quelle/Artikelgruppe, zeitgesteuert)
- Quellen: Herstellerseiten, Portale (Login), Web, PDFs/Downloads
- Pipeline: Navigation (finden/klicken/login) → Extraktion (Texte, Bilder, Dateien, Attribute, Empfehlungen, Rechtstexte, beliebige Daten)
- Beide liefern denselben Rohstoff (strukturierte + unstrukturierte Daten), der auf Artikel- und Content-Entitäten gemappt wird