Crawling
Hvad er crawling?
Når man som bruger foretager en søgning på en søgemaskine, kunne man sagtens være af den overbevisning, at søgemaskinen pløjer hele internettet igennem for at levere søgeresultater. Det er på den ene side heller ikke decideret forkert, men forskellen er dog den, at de svar, den leverer, kender søgemaskinen allerede til, da de i forvejen er blevet crawlet og derefter indekseret. Dette gøres for, at resultaterne således lynhurtigt kan gengives for brugerne af søgemaskinen. Søgemaskiner er baseret på er afhængige og baseret på store databaser over sider, og det er netop i de databaser, du søger – ikke hele internettet.
Databaserne er således fyldt op med sider, som søgemaskinen i forvejen har crawlet samt godkendt som brugbare svar på søgeforespørgsler.
Hvilke opgaver har crawlere (søgemaskinebotter)?
Crawlere eller søgemaskinebotter har i princippet kun to opgaver, de skal løse.
- Finde nye sider på internettet, der kan indekseres
- Udtrække information fra hvert nyt website, de identificerer
Når crawlerne har udført disse to opgaver, skal indholdet analyseres og sorteres. I den forbindelse er crawlerne kodet til at tage forbehold for bestemt indhold i forhold til hvad, som sendes til indeksering. På den måde vil sider, som er i strid med loven ikke blive indekseret som brugbare søgeresultater. Det kunne være sider, som beskæftiger sig med salg af våben narkotika eller andet illegalt.
Det er afgørende at forstå, hvordan crawlere fungerer, hvis man ønsker at optimere sine organiske placeringer i søgeresultaterne. Hos Refyne har vi flere SEO konsulenter med flere års erfaring med netop dette.
Vil du have hjælp til SEO, eller vil du gerne se priser på SEO? Kontakt os endelig og hør mere omkring, hvordan vi kan optimere din digitale performance. Vi er specialiseret inden for: SEO, Paid Social, Paid Search, Webanalyse og Tracking samt konverteringsoptimering.