Hur en sökmotor fungerar

Hur gör man marknadsföring av sajten på sökmotorer? Alla ska ha en sajt men hur marknadsför man den på sökmotorer?
När sökmotorerna presenterar sina sökresultat så styrs dom av en algoritm. Denna algoritm är unik för varje sökmotor och dessutom så sker det löpande förändringar vilket försvårar marknadsföring av vår sajt. Som tur är så är det oftast mycket små ändringar och dom sker inte särskilt ofta. Algoritmen tilldelar olika element och egenskaper hos webbsidorna högre eller mindre värde, Med avsikt att åstadkomma så relevanta söksvar som möjligt. Man ska komma ihåg att detta ändras hela tiden, så för att lyckas måste man ha gjort bra ifrån sig i alla element som nämns. De element och egenskaper som ofta viktas upp är:

  • URL:  Sajtens domännamn och sidans filnamn.
  • Title: Den titel som endast visas i söksvar och på sajten.
  • Description: Den osynliga beskrivningen av sidan som endast visas i söksvar.
  • Keywords: Osynliga uppräknade nyckelord.
  • H1-header: Huvudrubrik, storlek kan dock styras med font size eller stilmall.
  • Ingress: Textstycke som följer direkt efter H1.
  • Mellanrubriker: H2, H3 o.s.v.
  • Länkpopularitet: Antalet externa länkar som pekar mot sidan.
  • Länkkvalitet: Hur populär den länkande sajten är.
  • Länktext: Den text som beskriver länken som pekar mot sajten.
  • Klickpopularitet: Hur många som klickat på länken i söksvaret.
  • Returbenägenhet: Att återvända till söksvaret inom en viss tidsrymd.

Spindlar – så här fungerar dom

  • 1. Spindel. Ett robotliknande program som laddar hem hemsidor.
  • 2. Den vandrande spindeln. En spindel som kryper runt på webben och följer länkar på dom olika sidorna som den hittar.
  • 3. Indexer. Ett slags redaktörsprogram som delar upp sajterna som spindlarna samlat ihop.
  • 4. Databasen. Här hamnar sajterna och delas upp i olika element.
  • 5. Sökmotorresultat. Här hämtas det slutgiltiga sökmotorsvaret.

En spindel är ett robotliknande program som tankar hem hemsidor. Fungerar som din webbläsare. När du kopplar upp dig mot Internet så laddas sajten ner i din webbläsare.

Crawlern har ungefär samma funktion som spindeln, men den kan dela upp en sajt och leta, följa länkar. Det är crawlerns jobb att tala om för spindeln hur den ska navigera och hur den ska läsa länkar. Detta sköts av ett special programmerat länk program.

En indexer delar upp sidan i olika element och analyserar den. Som tex. Titel, huvudrubrik, beskrivning, länkar, text, fet stil på text..

Databasen är ett stort varuhus med information om hemsidor som sökmotorerna laddar hem och analyserar.Detta kräver ett enormt utrymme på dom olika servrarna.

Sökmotorresultat. Av allt detta jobb är det resultatmaskinens uppgift att matcha användarens sökresultat. Du gör en sökning i en sökmotor så vet du nu att det ligger ett enormt jobb bakom varje söksvar du får.

När en användare skriver in sitt sökord i en sökmotor och får sitt svar så måste sökmotorn analysera detta ord och vikta upp i vilken kategori det finns i och hur den ska leta för att få de mest relevanta söksvaren. Detta kallas för sökmotorns algoritm (se det översta stycket som handlar om algoritmen.).

Register och sökmotorer: För att hitta rätt i de ofantliga informationsmängderna använder 85 procent av alla användare antingen register eller sökmotorer eller bägge. Sifo Interactive uppger att häften av alla svenska surfare använder svenska sökmotorer och lika många utländska. Varje dag sker omkring 750 miljoner sökningar Begreppet “sökmotorer” används i dagligt tal ofta som samlingsterm för både register och för regelrätta sökmotorer, vilket inte är helt korrekt.

Skillnaden mellan dessa är att sökmotorer läser och indexerar alla ord på sajterna  (upp till 65.000 tecken per sida) och ofta även alla sidor i en sajt, åtminstone ner till fjärde nivån i bibliotekshierarkin. Register presenterar däremot endast sajter, inte enskilda sidor, och ordnar dem i hierarkisk form efter ämnesområden.

Regelrätta sökmotorer är databaser ur vilka information hämtas på begäran, genom att någon gör en sökning. Sökmotorerna erhåller denna information på två sätt. Dels genom att ägare till hemsidor anmäler dessa hos sökmotorn, dels genom att sända ut en s.k. sökspindel. Sökspindeln är en robot som följer länkar i dokument, läser in de sidor som länkarna pekar mot, samlar på sig nya länkar och kryper vidare från sida till sida.

Innehållet i sidorna indexeras och placeras i databaserna, som efterhand får enorm omfattning. Metoden har sin begränsning därigenom att sidor som inte har några länkar pekande mot sig aldrig kommer att upptäckas, såvida ägaren inte registrerat dem hos sökmotorn. Den ofantliga mängden information i databaser kan heller inte nås, eftersom sökspindeln inte förmår att fylla i det formulär (vanligtvis en enkel sökruta) som krävs för att databasen skall skapa en dynamisk sajt.

Färdiga länkar till sökningar i databaser kan i princip följas. En begränsad mängd data i en databas, kan dock varieras på ett oändligt antal sätt. Sökspindlarna kan inte avgöra om så är fallet och ägarna till sökmotorerna vill undvika att deras egna register översvämmas av överlappande information. Man tillåter därför normalt inte sökspindlarna att följa länkar som innehåller frågetecken ”?””=” eller ”&”, vilket indikerar att länken pekar mot en databas. Detta är anledningen till att information i databaser tillhör den osynliga eller ”djupa” delen av webben, som inte indexeras av normala sökmotorer.

Två undantag är f.n. kända från denna regel. Google har under hösten börjat följa länkar till dynamiskt innehåll. Altavista indexerar dynamiska sidor om länkarna till sidorna matas in manuellt i deras anmälningsrutin. Sökningar mot databaser kan bara ske med hjälp av särskild programvara hos användaren själv. Den studie som Bright Planet publicerat torde ha varit avsedd att understödja försäljningen av deras eget nya verktyg LexiBot, som söker av databaser i realtid. Dessa sökningar blir av naturliga skäl mycket tidsödande – 30-40 minuter – men genererar å andra sidan svar som inte kan erhållas på annat sätt.

Även programvara för sökmotorer är lätt tillgänglig som shareware eller freeware. Vanligtvis används dessa för s.k. ”site-search”, d.v.s. sökning i en viss sajt. Men det finns även gratis sökmotorprogram som klarar att indexera externa sajter inom en definierad sfär, t.ex. en bransch eller ett ämnesområde. Det finns därför flera tusen sökmotorer i drift.

Av världens 15 populäraste sajter är 13 antingen register, sökmotorer eller startsidor knutna till sökmotorer eller register. Detta skall dock inte tolkas som att alla användare utgår från sökmotorer när de surfar.

Sett ur användarperspektiv ser det annorlunda ut. För att ta sig till en sajt utgår 36 procent från länkar på en sajt till en annan sajt, 30 procent från en länk på en sida till en annan sida i samma sajt, 28 procent från länkar som sparats på egen dator som ”bokmärken” (i Netscape) eller ”favoriter” (i Internet Explorer) eller från adresser som knappats in i webbläsarens adressruta. Endast 6 procent utgår från sökmotorer eller register. Dessa 6 procent räcker dock för att föra upp de ledande sökmotorerna och registren till den absoluta Internet-toppen. Det är viktigt att inse att länkar som pekar mot en annan sajt, antagligen kommit dit sedan den som lagt ut länken hittat sajten via en sökmotor

Om du gillade det här inlägget, lämna gärna en kommentar eller prenumerera via RSS så du inte missar framtida inlägg.

Speak Your Mind

*