Crawling Services

Das aggregieren und strukturieren von unterschiedlichen, auch hoch-dynamischen, online Daten mittels unserer leistungsfähigen Web Crawler, Spider und Parser betreiben wir seit über 10 Jahren. Wir verwenden unsere eigene, flexible Technologie, um das Internet in strukturierte Daten umzuwandeln und eigene Inhalte besser nutzbar zu machen.

SEOlytics_crawler_cluster


Beispiele dafür sind:

  • Eigene API auf Datenbeständen ohne strukturierten Zugang, bspw. für Apps oder mobile eCommerce Systeme
  • Strukturierte Extraktion von Teildaten, wie Preisinformationen oder Verfügbarkeit
  • Mustererkennung von Themenkanälen
  • URL/Themen/Textkorpus Strukturen bspw. in Foren nach Relevanz gewichten und analysieren

Durch unsere leistungsfähige Infrastruktur sind hoch-frequenz Crawls oder große Mengen in kurzen Intervallen durch Parallelisierung möglich.

Ich mag Krabbeltiere!