Kvalitet och förtroende – vad ger din sajt för signaler?

Nikke skriver i sitt index om kvalitet och förtroende. Detta tycker jag är bra eftersom jag tjatat om detta under snart ett år. Det som är intressant är att Google nu verkar göra slag i saken vid denna senaste uppdatering.

Här kommer några små utdrag från Nikke som jag finner extra intressanta och värda att understryka:
Man har öppet pratat om begreppen “trust” och “signs of quality”. Samtidigt har det nyligen framgått att Google har ökat antalet variabler som används vid sammanställningen av sökresultaten. Förut sade man att de tog hänsyn till 100 olika variabler. Idag går Google själva ut med att de tar hänsyn till fler än 200 “signaler”.
När Eric Schmidt talar om signaler så pratar han absolut inte bara om saker som title-taggar, code-till-text-ratio och urlars utseende. Den typen av variabler räcker helt enkelt inte till. Det har naturligtvis spekulerats vilt om vilka dessa 200 signaler kan vara. Jag tror att trovärdighet, förtroende och länknätverk är några av de viktigaste punkterna. Med länknätverk menar jag inte antalet inkommande länkar, utan sammansättningen på nätverket som levererar länkar till sidan. Jag tror också att trovärdighet (trust) och kvalitet (signals of quality) har blivit allt viktigare signaler i Googles bakomliggande algoritm. Både för sidan som vi vill få att ranka och för sidorna som länkar till den. PageRank utgör förstås fortfarande en del av algoritmen, men TrustRank är viktigare. Med TrustRank avser jag vilket förtroende de länkande sidorna har satt i relation till den länkade sidan.

 

 

Nikke säger sig ägna helgen åt att studera detta vidare, ser fram emot slutsaten han drar.
Källa: Nikkes index

Google under det senaste året

Det här är vad jag tror hänt på Google under det senaste året.

Det finns nu 3 st databaser (datacenters/dc’s).

Det primära dc’t är för sajter/sidor som har:
a) Konstant bra kvalitativa, nya länkar till sig. utan masstillverkning.
b) Kan hända att det hjälper med att addera nytt material konstant.

Denna databas har sin egna uppsättning av algoritmer för sökoptimering. Om relevans finns för söktermen så kommer sajter ur detta dc’t att ranka bra efter sökoptimering och sökresultatet att komma högt upp. Det är som om de redan har bonuspoäng av något slag.

Den andra databasen är för sajter som har bra inkommande länkar men “temat” är inte riktigt “rätt”. Kanske för få nya länkar eller innehåll som inte uppdaterats på flera månader. Dessa sajter kan ranka bra i sökresultaten vid hög relevans (kanske för att sidans titel matchar sökningen bra) men sajter i det primära datacentret kommer alltid att ranka högre om förhållandena är likvärdiga.

Sajter i det andra dc’t är känsliga för fler “sidofaktorer” och kan vara utsatta för en roterande algoritm på Google. Vilket kan resultera i några veckors topplacering för att sedan droppa lite under några veckor. Detta var vanligt vid sökoptimering för ca ett år sedan och verkar nu vara tillbaka i ny tappning.

Google vill ha variationer i sina resultat och det verkar de göra via det sekundära indexet. Sajter i det första datacentret är mindre känsliga för en roterande algoritm.

Det tredje datacentret består av nya sajter och “duplicate content” (samma innehåll). Dessa är de sista Google presenterar och kommer endast upp i sökresultaten efter sökoptimering om få matchningar finns i de två andra datacentren. Sättet att komma ur detta indexet är att ha unikt innehåll som uppdateras eller kompletteras med nya sidor emellanåt (ert jobb) samt att sajten får nya fräscha relevanta länkar konstant (vårt jobb). Sajter måste “bevisa” för Google att de inom sitt “tema” är av en “naturlig profil” inom ett växande område om sökoptimering i detta indexet skall lyckas.

Denna teori (medger att det endast är teori) kan förklara varför vissa sökoptimeringar fungerar bättre och är stabilare än andra sökoptimeringar. Ett primärt index med sin egna algoritm ur rankningshänseende är olika det sekundära. Att komma in i det första datacentret är av stor vikt. Ni bör därför uppdatera med nytt material oftare än förut (se separat artikel). En gammal regel vid sökoptimering är att skriva en ny sida om dagen!. Skriver ni minst en per månad så hjälper det garanterat.

(Detta är en artikel som våra kunder haft tillgång till under lång tid på vår kundwebb och som nu är publicerad offentligt).

Patentet Google TrustRank

Google Patent Analys! Jag har spenderat någon vecka nu med att analysera Googles patent.

Vi pratar här om ett helt nytt sätt att värdera sajter på, kallat TrustRank. Google har ju sedan länge sitt PageRank system. Detta är helt nytt och vissa delar är redan implementerade.

Jag kommer här att referera till patentet här:

 

Någon enstaka kanske redan har sett patentet och avfärda det som nonsens och enbart till för att förvilla, kanske för att det är svårläst, otroligt komplext och besvärligt att förstå.

Jag tror patentet går ut på 3 saker:
1. Faktorer som Google (G) tycker är viktiga och finns i dagens algoritm redan.
2. Faktorer G tycker är viktiga och kommer att implementeras i algoritmen under de kommande 3-5 åren.
3. Faktorer G vill sätta ett tidigt patent på för att befästa att ingen konkurrent tar det i beaktande.

 

Om ni läser igenom patentet kommer ni att se en bred och ofta motsägelsefulla redogörelser vilket får folk att avfärda den som skräp. Men jag tror att de i så fall missar poängen med patentet. Vad G vill säga är att händelser och egenskaper på optimerade sajter efterliknar “riktiga” sajter men skiljer sig i skala, syfte och i förhållande till andra faktorer. Som exempel om en sajt helt plötsligt får 500 nya länkar till sig på en vecka, är det bra eller dåligt? Svaret är: det beror på.

Om länkarna är för ett genombrott, trendigt, eller hett sökord så är det troligtvis inte dåligt. I annat fall så är det säkert dåligt eller onaturligt. Så om en sajt får en onaturlig hög mängd med inkommande länkar men det inte finns någon likvärdig ökning av sökningarna för sökordet så känns det naturligt att anta att de inkommande länkarna kan anses som spam. Ur en algoritmisk synvinkel så är det vad som står i länkarna och relevansen i det (samma överallt) som kan vara en indikation över att det är sökmotorspam. När man ser på en en sajt eller ett dokument i sin helhet och det finns flera faktorer som indikerar spam, finner dom det troligtvis onaturligt och sajten filtreras (sandboxad).

 

Se det så här:
Du kör en röd Corvette nedför gatan. Det skulle kanske inte uppmärksammas speciellt mycket. Om du kör 10km/timma över hastighetsbegränsningen så är det fortfarande ingen som lyfter på ögonbrynen. Om du dessutom har ett trasigt bakljus så börjar det se misstänksamt ut. Om du dessutom cabbar ner och musiken flödar, din passagerare står upp och skriker och dansar så blir du garanterat stoppad. Förutom din passagerares agerande så var det inget som skulle vara en anledning till att du blev stoppad av sig självt. Ju fler kombinationer av “överträdelser” desto större risk att åka dit.

Här är en lista över några av de faktorer som omnämns I patentet. Det känns som om det finns en normal anledning till att dessa faktorer förändras. Min poäng med att peka ut just dessa är att jag vill lyfta en varningsflagga mot möjligheter för sökmotorspam. Jag har inkluderat sektioner från var jag dragit slutsatserna i patentet.

 

Domän faktorer

Domänregistrationens längd

Är domänen köpt på ett eller 10 år I förskott (sektion 0099)

Domäner övervakas

För förändringar när dom går ut. (sektion 38,39)

Namnserver, och Whois data

Övervakas utifrån förändringar och giltig fysisk adress (samma teknologi som till Google Maps)

Namnservers och troligtvis klass C IP-serier

Bör ha olika whois data, registraturer och sökord resp inga sökord på domäner eftersom många sajter delat samma IP nummer i en C-klass serie. (sektion 0101)

Dokument/websiter ges ett datum för upptäckt

När G hittade den genom någon av nedanstående sätt:
1) extern länk
2) registrerad
(sektion 1,2,3,4, 38)

Förändringar av en domäns “teman”

Som inte matchar innehållet som är i fokus och gentemot existerande länkars innehåll övervakas. (sektion 0084)

Sajter måste bestå av fler än ett dokument (sektion 5)

Förändringar av söktermer för en domän övervakas. (sektion 50)

 

Dokument och sidor

Dokument jämförs för förändringar av:

1) frekvens (tidsfaktor)
2) mängd av förändringar
(sektion 6,7,8, 9, 11, 12)

Antal nya dokument (interna ?)

länkade till dokumentet övervakas (sektioner 9,13)

Förändringar av sökordsdensiteten

på ett dokument övervakas (sektion 10, 14)

Dokument som stagnerat

(inte förändrade) övervakas. (sektion 19)

Hur innehållet på en sida förändras

hur texten på externa länkar förändras, registreras. (sektion 31, 33)

Utgående länkar

till dåliga, eller spammande sajter kan vara en indikation på låg kvalitet. (sektion 0089)

Förändra inte fokus

på för många dokument samtidigt. ( sektion 0128)

 

Länkar

En länks (extern till sajten) upptäcktsdatum

registreras (sektionerna 54, 55, 56, 57, 58)

Länkar ges en upptäckts och försvinnandedatum.

(sektion 22,26, 58)

Länkar och länktext övervakas utifrån volym.

(sektion 48)

Länkar övervakas utifrån förändringar i länktexten

över en given tidsperiod. (sektioner 27, 30, 54, 55, 56, 57, 58)

Länkar viktas utifrån trovärdighet

eller auktoritet av det länkande dokumentet, liksom för åldern på länken. (sektion 28, 58, 0074)

Länkars tillväxt

oberoende av dokumenten (olika C-klass nätverk, IP-series) övervakas.

I vilken takt nya länkar till ett dokument uppkommer övervakas.

(sektionerna 23, 24)

Det fastställs om ett dokument har en trend till ökning

eller minskning av inkommande länkar. (sektion 25)

Et distrubitionsfaktorsvärde för länkars ålder övervakas.

(sektion 29)

Länkar som har en lång historik

har högre värde än länkar med kort livslängd. (sektion 59)

Länkar från o-uppdaterade sajter nedvärderas.

Länkar från frekvent uppdaterade sajter premieras och ges en boost. (sektion 60)

Nya sajter förväntas inte få stora mängder länkar direkt.

(sektion 0038)

Länkars tillkommande

bör vara konstant och långsamt växande. (sektion 0069, 0077)

En för snabb tillväxt av länkar

kan vara indikation på sökmotorspam. ( sektion 0077)

Om ett dokument förblir orört länge

men kontinuerligt får nya länkar kommer sidan att betraktas som fräsh ( sektion 0075)

Om ett dokument förblir orört

och utan tillväxt eller minskning av länkar kommer dom utgående länkarna att inte få något värde. (sektion 0080)

En stor mängd länkar kan accepteras

om dokumentet har någon eller några länkar från auktoritära sajter (sektion 0110)

 

Sökresultaten

Volymen på sökningar utifrån sökord

övervakas över tid utifrån ökningar.(sections 17, 18)

Information beträffande dokuments placeringar

övervakas och noteras utifrån förändringar. (setioner 41, 42, 43)

Click through rates (CTR, antal klick)

övervakas utifrån förändringar per sessonger eller andra faktorer (sektion 43, 44)

Antal klick övervakas

utifrån ökande eller minskande trender (sektion 51, 52, 53)

Antal klick övervakas

för att se om ouppdaterade eller uppdaterade dokument är mer efterfrågade vid sökresultaten.y (sektioner 20, 21)

Antal klick för ett dokuments sökord övervakas

(sektionerna 15, 16, 37, 43)

Användardata

Trafiken till ett dokument övervakas

utifrån förändringar (troligtvis via Google Toolbar eller via sökning på datornns cache och historis) (sektion 34, 35)

Användarnas beteende på sajter övervakas

och förändringar registreras. (klick bå bakåt knapp etc)(sektion 36, 37)

Användares beteende övervakas

genom bokmärken, cache, favoriter och temporära filer (sektion 46)

Bokmärken och favoriter övervakas

utifrån tillägg eller borttagningar. (sektion 0114, 0115)

Använndaregenskaper

för doument övervakas utifrån förändringar.s (sektion 47)

Tiden användare spenderar på en sajt

kan användas för idikering av en sajts kvalitet (sektion 0094)

Övrigt

Document som förändras konstant i placeringarna

kan antas vara icke trovärdiga. (sektion 0104)

Sökord med liten eller ingen förändring i resultaten

bör matcha domän er med stabil placering (sektion 0105, 106, 107)

Sökord med hög livlighet

(ombytlighet) bör ha domäner med mer livlighet (sektion 0105, 106, 107)

 

Slutsats

Detta är vad vi tror kommer att bli framtidens TrustRank.

Google kommer att lägga stor vikt vid sajters trovärdighet.