Uppsnappat från Search Engine Strategies i San Jose

Sökmotoroptimering och tipsen som snappats upp från konferensen SES i San Jose. 

“Dubbelt trubbel” Vad är “duplicate content“? Multipla domäner: identiska hemsidor på olika domäner. Olika länkar till flera domäner från en site.

Anledningen till att man skall undvika detta: sökmotorerna säger så. Det är tillräckligt.

Förvillande för robotarna (spindlarna). Det togs upp ett exempel från International Research Foundation fär RDS/CRPS. Dom bestämde sig för att använda .edu istället för .com. När dom gjorde det försvann dom helt. Detta är värt att notera för IT människor som tror dom vet hur man skall utföra sökmotoroptimering.

Ett annat exempel: Lifeline Systems hade 2 domäner. Tidigare gjordes alla affärer med professionella hälsospecialister.Mängder av länkar kom således från varierande hälsositer och sjukhus. I samband med en användarkampanj beslutades det att man skulle byta domän och det skapade mycket förvirring. Det slutade med att dom lev bannlysta.

Dynamiska URL’er: Leta efter sidor i sökresultaten som inte har sidans korrekta titel och beskrivning och titta i “we have removed pages that were similar” i botten efter det sista sökresultatet. 301 redirects är “kung”. Rekommenderas varmt att användas om ni vill ta bort duplicerade sidor. Har du blivit bannlyst, städa upp och använd Google’s och Yahoo!’s “reinclusion requests”.

Google’s patent: Ett patent är i grunden affärer. Dom får exklusivitet att använda informationen under ett antal år.
Patenten används för: (1) red herrings (metafor) som dom troligtvis inte kommer att göra något åt med du vet…, (2) affärshemligheter (som sandbox) är inte i patentet och (3) rykten.

Hur ofta du ändrar ditt innehåll är en faktor. När dom första gången hittar din site, gentemot den senaste spindlingen och när du senast uppdaterade hemsidan. Dom tittar efter meningsfulla förändringar (inte bara datumändringar).

När en site byter IP-adress omvärderas oftast siten. Detta är ett eventuellt tecken på ägarbyte.

Faktorn av förändrade länkar övervakas. De flesta sökmotorer har begränsningar för hur snabbt en site kan låta sina länkar växa (sandbox, länkars ålder), ett plötsligt hopp med inlänkar kan dra uppmärksamhet till sig från “spam-polisen” (medlemskap i stora länknätverk/”free for all linkschemes”/korslänkning mellan en massa domäner). Det finns undantag för “heta” siter, mänsklig övervakning.

Taggning; Tvivelaktigt att detta används av de stora sökmotorerna längre.eftersom det är lätt att slälnga in mängder av sökord. Länktexter erbjuder samma fördelar med bättre möjligheter och sökmotorerna har efrfariti detta med sökord (keywords) taggar och Google exprementerar nu med ett “slutet” system, kallat Google Coop. Väldigt användbart för multimedia innehåll (bilder/video/ljud, etc) och har ännu inte spammats sönder.

Kvalitetspoäng: Innehållets (copy) kvalitet är idag en faktor för betald placering via Adwords idag. Yahoo har det med i sin Panama uppdatering. Alla sidor som anmäls går igenom en kvalitetskontroll. Detta påverkar sannorlikt inte den organiska rankningen. Utvärdering av utgående länkar sker traditionellt genom att man letar efter om dom också länkar till dig och inte vem du länkar till. Men nu ser även sökmotorerna på kvaliteten och vem du länkar till. Dom använder detta för “spam” utvärdering och ger dig en “spam”-poäng som påverkar din sites förtroende.

AdSense länkar påverkas inte negativt. Dom är gjorda genom redirect och har ett “nofollow” attribut på sig.

Postkoder/IP-nummer kan användas för att påverka sökresultaten på reginal nivå. Sökmotorerna extraherar redan lokal information från hemsidor (främst i USA) för geografisk sökning.

Annorlunda saker som påverkar är domännamnets längd och RSS flöden. Teorin är att om du har RSS har du troligtvis en väluppdaterad hemsida.

Om du gillade det här inlägget, lämna gärna en kommentar eller prenumerera via RSS så du inte missar framtida inlägg.

Speak Your Mind

*