Duplicerat Innehåll del 5

Vad gör Google om de upptäcker duplicerat innehåll?
Bestraffar den senast funna inom några sekunder. Vad som generellt händer är att den först hittade anses som originalet. Den andra kommer att begravas djupt ner i resultaten och ingen sökordsoptimering i världen hjälper. Undantag finns naturligtvis. Vi tror att det är hög PageRank/TrustRank. Detta för att de anses ha bra status och hög trovärdighet. Naturligtvis så finns det sajter som slinker igenom filtret.

Jag tror att “duplicering” kommer att bli vår stora nöt att knäcka i framtiden. Vi har 100% kontroll på vad vi ska göra när olika typer av filter aktiveras, men ibland kan vissa saker vara svåra att upptäcka efter vi gjort sökordsoptimering.

Duplicate content-problemet har inte nått sin fulla styrka ännu och fortfarande i liten omfattning i Sverige ännu, men det kommer garanterat. Som allt annat så är Amerika först upp. Detta är bara början och sökmotorerna har nu gjort den grundläggande filtreringen genom att lösa filtrering som vi beskrivit ovan. På Search Engine Conference i New Orleans fick Googlee, MSN och andra representanter från olika sökmotorer frågor om ämnet och svarade:

”Det är mycket svårt att skilja ett original från kopian genom automatisk process. Det är INGEN prioritet i nuläget p.g.a. svårigheterna med algoritmen och dom juridiska aspekterna att öka filtreringen”.

Men de löser det garanterat och skruvar upp filtret. Innehållstjuvar kommer säkert i många fall att hamna under”’rättmätigt användande” och falla in i filtret. Notera att dom juridiska aspekterna tas på mycket stort allvar av alla stora sökmotorer.
Var säker på att er sajts text är original. Google behöver exempel på hemsidor som filtrerats bort och är original. Detta kan göras på: www.google.com/support/ med “duplicate content” i ärenderaden.

Duplicate content filtreringen varierar mellan sökmotorerna
Yahoo filtrerar mindre medan Google filtrerar ner komplext. Google tar också hänsyn till mer egenskaper för filtreringen, tex. mallar etc. Som även kan filtrera hela siter av enskilda sökord.

 

Det finns så många saker som kan påverka filtreringen så jag tror inte vi kan redovisa alla. Det vanligaste problemet är systersajter på olika domäner och http problemet. Tänk också på detta om ni har/skall göra en shop som många använder (mallar) så kan risken för filtrering vara stor om ni inte har unikt redaktionellt material utan endast produkter som även dom många använder.

Om du gillade det här inlägget, lämna gärna en kommentar eller prenumerera via RSS så du inte missar framtida inlägg.

Speak Your Mind

*