Definitioner på “duplicate content”

Hur skall man kunna definiera “duplicate content” filtrering på Google, påverkar det er sökoptimering?

Sammansatt lite frågor & svar:
F. Du har en artikel på runt 1000 ord. Tre separata artikelsiter stjäl en tredjedel var (t ex en tar 333 och, en annan tar 333-666 ord osv.) för att visa på deras artikelsite och länkar tillbaka till originalartikeln. Är det “duplicate content”?
S: På ett sätt, ja Hur det används kommer att avgöra hur mycker duplicerat det är.

F. 10,000 återförsäljare återanvänder tillverkarens beskrivningar för en produkt som tillverkaren också visar på sin hemsida för samma produkt. Kommer någon av sidorna att finnas med på Google elller kommer alla att vara “duplicate content”?
S: Den sidan som Google först hittar brukar finnas kvar, men den som förändrar innehållet så mycket att det inte längre klassas som duplicerat är den som seglar mot toppen.

F. 1000 bok-försäljare använder samma innehåll från en bok dom marknadsför på sin site. Var och en visar mellan 500-2000 tecken. Vilka betraktas som duplicerat?. Dom med 2000 tecken (eftersom deras innehåll matchas med de 1000 webbsidorna) eller de som endast har 500 tecken eftersom deras innehåll blir mindre unikt eftersom det är ett mindre antal tecken. Eller är dom alla dömda?
S: Som jag ser det är dom alla dömda, om dom förlitar sin på det innehållet endast.

F. Det finns många s.k scraper siter (innehållstjuvar) som stjäl innehåll och helt enkelt mixar om det. Är “duplicste content” filtret baserat på duplicerade ocr eller är det ordningen på orden som är filtret?
Antar att ommixningen enkelt kan upptäckas eftersom det inte blir en “naturlig” skrift. F. Blir koden och sidornas uppbyggnad/design ignorerat när man kalkylerar duplicering?. T ex  navigering och annat som återanvänds på samtliga sidor (eller största delen).
S: När Google tittar efter “duplicate content” skalas alla mallar, navigering, grafik mm bort. Kvar blir själva texten.

F. Är det sidan med högst PageRank som är originalsidan?
S: Både ja och nej. Det förändras under tiden. T ex har den högsta PageRanken troligtvis statusen som originalet en tid. Men, eftersom originalet kommer att få naturliga länkar mm borde det väga högst. Vad som är mest vanligt är att den först funna = original

F. Kommer 2 sidor som har exakt samma title, description och keywords men totalt olika innehåll i texten att betraktats som duplicerat.
S: Troligtvis inte. Men du bör ändå inte riskera det. 

F. Kommer 2 sidor som har exakt samma title, description och keywords men totalt olika innehåll i texten att betraktats som duplicerat.

Viktiga länkar:
Vad är robots.txt.
Små tips om sökmotormarknadsföring.
Vad är duplicate content
Sökordsoptimering och filtrering.
Allmänt om sökmotoroptimering.
Patentet TrustRank.
Duplicate content.
Sökordsoptimering och filtreringar.
Regler för DMOZ
Små tips om sökmotormarknadsföring.

Om du gillade det här inlägget, lämna gärna en kommentar eller prenumerera via RSS så du inte missar framtida inlägg.

Speak Your Mind

*