Hvad er et crawler-progamm? Søgemaskinerne bruger såkaldte "crawler-progammer" til at finde hjemmesider på Internettet. Disse crawler-progammer gennemsøger webhoteller og indekserer de websider som de synes er relevante.
Et crawler-progam bruger meget kort tid til at "crawle" en webside (mellem 0,5 og 50 ms) og er derfor "taknemmelig" overfor hurtige websider.

W3C-valid

-> close window
Copyright © 2008 - sbc Danmark | opdateret: 01-03-2011