Vad är indexering?
En indexering sker när en webbsida blir listad hos en sökmotor och det är först när en sida blivit indexerad som den syns i sökresultatet. Hur högt upp i sökresultaten en indexerad sida hamnar beror på flera faktorer, bl a hur bra den är optimerad med relevanta sökord. Hur du placerar dessa sökord på din sida kan spela en stor roll i din rankning i sökresultatet och är en viktig del i det som inom digital marknadsföring kallas sökmotoroptimering, eller SEO.
Om du t ex vill kontrollera att din webbsida är indexerad kan du testa att skriva in site:domännamn i Googles sökfält. I sökresultatet kommer du sedan kunna se vilka sidor som indexerats av Google hittills, och skulle du vilja se om en specifik sida är indexerad behöver du bara skriva in sidans URL i sökmotorn.
Varför är indexering viktigt?
I dagens digitala landskap blir det allt viktigare att synas online, och om din webbsida inte är indexerad kommer den inte att synas i sökresultatet. Om man betänker att t ex Google har uppemot 95 % av marknadsandelarna i Sverige och att uppemot 80% av svenska folket googlar när de planerar sina inköp, så blir det extra tydligt hur viktigt det är att synas och hamna högt upp i Googles sökresultat. Det gäller därför att på bästa möjliga sätt optimera din hemsida så att den kommer indexeras ordentligt och på ett korrekt sätt av sökmotorerna för att få bästa positionering och ranking.
Hur fungerar indexering?
Det som sker vid en indexering är att en sökmotor, t ex Google, registrerar existensen av en hemsida och sedan bokför de sökord och fraser som existerar på denna sida. Innehållet i sig spelar ingen roll, det kan vara en text, video, bilder – oavsett format sparar sökmotorn all information i sitt ständigt växande index. Man skulle kunna likna indexering med att varje hemsida är en bok med olika innehåll som en sökmotor lägger till i sitt redan gigantiska bibliotek av böcker. Allteftersom denna lista av webbsidor med ord och fraser fylls på och katalogiseras desto mer relevanta sökresultat kan visas vid en sökning.
Låt oss nu tänka oss att en användare vill veta något, köpa något eller kanske bara vill läsa en artikel som nyligen har publicerats online. Oavsett vad anledningen kan vara kommer användaren nu att i sökmotorn skriva in ett ord, en mening eller en fråga och sedan trycka på sök-knappen. I o m detta klick startas en blixtsnabb process där Google med hjälp av avancerade sökalgoritmer börjar leta igenom sitt stora index av hemsidor efter ett så relevant sökresultat som möjligt. Denna genomsökning kallas på engelska för crawling, efter det tillvägagångssätt som sökmotorer använder för att ta reda på vad som finns ute på nätet.
Google använder sig exempelvis av sökrobotar, på engelska kallade just crawlers eller spiders, som ständigt genomsöker nätet på jakt efter nytt och uppdaterat innehåll att indexera. Det är också dessa sökspindlar som letar fram relevanta sparade sidor för att kunna ge ett relevant resultat vid en sökning. Dessa ständiga genomsökningar av nya och redan registrerade webbsidor skapar dessutom ett stort index av alla länkar, både interna och externa, som finns på en sida. Dessa länkar följs sedan av spindlarna som via de interna hittar nytt innehåll på den befintliga sidan och via externa hittar nya webbsidor att indexera.
Att eventuellt undvika indexering
Om du har en eller flera sidor som du inte vill ska bli indexerade kan du använda metataggen robots.txt för att berätta för t ex Google vad som eventuellt ska granskas eller inte. En robots.txt-fil är i sig ingen direkt garanti för att en sida inte ska indexeras och visas utan kan ses mer som en rekommendation gentemot sökmotorn.
Om du vill vara helt säker på att en sida inte kommer att indexeras är det bättre att anonymisera den med hjälp av t ex inloggning eller med verktyg som kräver någon slags verifikation för kunna komma in. Detta förhindrar sökmotorer från att nå sidor och ger en bättre garanti i längden för att de inte kommer synas.
Det är också möjligt att med hjälp av direktiv-taggen noindex undvika indexering genom att säga till sökmotorn att inte följa länkarna på en viss sida. Noindex-taggen behöver vara synligt på en sida för att det ska fungera och om du t ex har en robots.txt-fil på samma sida kommer den att hindra noindex från att synas och sidan kan komma att indexeras ändå.
Så här underlättar du indexering
Indexering av en sida sker allt som oftast automatiskt, allt eftersom sökmotorer förr eller senare hittar fram till sidan. Om du har en webbsida som du vill ska bli synlig direkt i sökresultatet och inte orkar vänta den tid det kan ta för t ex Google att hitta och indexera din sida, kan du med olika metoder hjälpa sökmotorerna på traven:
– Aktiv efterfrågan om indexering: Om det är en enskild sida på din webbplats som du vill ska indexeras eller omindexeras kan du enkelt via granskningsverktyget i Google Search Console aktivt begära att sökmotorn granskar och registrerar innehållet.
– Webbplatskarta: Om du har flera webbsidor med adresser som du vill ska indexeras är det bättre att skicka in en webbplatskarta. Med en webbplatskarta, också kallad HTML-karta, ger du sökmotorer information om vilken typ av innehåll som finns på din sida, och på vilket sätt de relaterar till varandra. Genom att skicka in din webbplatskarta till t ex Google visar du vilka sidor som kan anses som viktiga och hjälper sökmotorn på traven att hitta bland ditt innehåll på ett mer effektivt sätt.
– Lättlästa webbadresser och länkar: För t ex Google är användarvänlighet och tydlighet något som aktivt efterfrågas. Om exempelvis flera URL:er är otydliga kan sökmotorn av misstag felaktigt tolka webbadresserna som liknande innehåll på en och samma sida. Genom att ha enkla webbadresser som enkelt kan läsas och förstås av vanliga människor och logiskt strukturerad webbplats med bra intern länkning underlättar du för sökmotorer att registrera och indexera din sida och dess innehåll.
– Användning av korrekt HTML-kod: Det underlättar för sökmotorer som t ex Google att förstå vilka relationer olika webbsidor har sinsemellan om du använder korrekt HTML-kod för definiera dessa sidor rätt. Om du t ex med en canonical URL förtydligar att en viss sida är kanonisk eller förtydligar relationen mellan två sidor med olika språk med en hreflang-tagg visar du hur sökmotorer ska indexera rätt.
Vanliga problem vid indexering
Ibland händer det att en sida som publicerats och legat ute ett tag på nätet ändå inte indexeras av sökmotorer. Varför en webbsida mot all förmodan inte registreras av sökmotorer kan bero på flera saker, och vi kommer nedan att lista några av de vanligaste anledningarna till detta:
– Robots.txt, noindex och nofollow signalerar allihop att t ex Google inte ska indexera en sida. Skulle det vara som så att en av dina sidor av misstag har dessa taggar och direktiv inskrivna i kodningen kommer de inte inte att kunna synas oavsett hur länge de funnits ute på nätet. Detta problem kan som tur är enkelt lösas genom att du tar bort taggarna från kodningen och begär omindexering av den aktuella sidan i Google Search Console.
– Sidor som bedöms att ha duplicerat innehåll kommer inte att besökas av sökmotorer i samma mån som t ex kanoniserade hemsidor, och kan därför synas mindre eller i vissa fall inte indexeras allt. Detta kan undvikas genom att du skriver in en canonical url som länkar till en huvudsida, eller att du jobbar hårdare med att ha så originellt content som möjligt på dina webbsidor.
– Sidor med dåligt skrivet innehåll och som är dåligt sökordsoptimerade ger, liksom det ovannämnda exemplet med duplicering, sämre ranking i sökresultatet och syns sämre och besöks alltmer sällan av sökspindlar.
Sammanfattning
– Indexering innebär att en webbsida blir registrerad av en sökmotor i ett gigantiskt index
– Sökmotorer söker genom nätet med robotar, sökspindlar, som sedan indexerar de webbsidor som de hittar med hjälp av länkar och webbkartor
– Länkar dessa webbsidor vidare följer spindlarna med och hittar nya webbsidor
– Hur väl en sida indexeras beror på flera faktorer, bla sökmotoroptimering
Tillbaka till ordlistan