Den 21 april dör alla gamla webbplatser

no-mobile

Gamla webbplatser som inte blivit moderniserade för att hantera mobila besökare kommer få det svårt efter 21 april.

I går, torsdagen den 26 februari, gick Google ut med följande information:

”Starting April 21, we will be expanding our use of mobile-friendliness as a ranking signal. This change will affect mobile searches in all languages worldwide and will have a significant impact in our search results. Consequently, users will find it easier to get relevant, high quality search results that are optimized for their devices.”

Takaki Makino, Chaesang Jung, and Doantam Phan

(Källa: http://googlewebmastercentral.blogspot.se/2015/02/finding-more-mobile-friendly-search.html)

[Read more…]

AJAX och sökmotorer.

Har på sistone jobbat en del med sajter som haft AJAX lösningar. Just nu pratar alla om Web 2.0 och tidskrifter som Internetworld hyllar “den nya webben”. Personligen tycker jag att det är lite för mycket hysteri kring det hela. I mitt jobb stöter jag ibland på sajter där man verkligen missbrukar AJAX funktionaliteten. AJAX är bra och jag gillar AJAX när det används på rätt sätt.

Man kan inte bygga AJAX lösningar som enda sättet att exempelvis ta sig till en produkt i en Webhandel.

Låt oss hoppas att denna Web 2.0 hysteri inte blir som den med Flash. Jag gillar Flash när det används på ett bra sätt för att öka en sajts estetiska värde. Jag gillar inte Flash när en mediebyrå bygger en häftig sajt helt i flash och att sedan företaget som beställt sidan efter leverans inser att det inte går att marknadsföra sajten på sökmotorerna.

Låt oss hoppas att hajpen kring AJAX lösningar lägger sig och att folk använder det på ett intelligent sätt.

Jag älskar smarta AJAX lösningar som den på Prisjakt där det även finns traditionell navigation för att komma till en sida. Något som utvecklare måste inse är att man inte kan bygga hela sajter på detta sättet. Tror man på marknadsföring på sökmotorer så är det en parameter att ta med i designen av varje ny sajt!

Sökmotorernas nätverk

Hur är de olika sökmotorerna kopplade tillsammans ?
Vilka tar hjälp av varandra och vilken sökmotor presenterar information för vilken ?

 

Kan man se vilken som är absolut viktigast för att få ut så mycket som möjligt av en så liten insats som möjligt ?

Yahoo!
presenterar resultat till:
Yahoo sökmotor
Altavista
MSN
Alltheweb
Inktomi
Dogpile

 

Lycos
Får sökresultat från:
AskJeves (numera Ask)
Looksmart
DMOz presenterar kategoriresultat
Google ger sponsrade länkresultat till Lycos

 

Looksmart
Får sökresultat från:
Inktomi (Yahoo!)
som presenteras på Lycos

 

Inktomi
Får sina sökresultat från:
Yahoo!
Presenterar sina sökresultat till:
Looksmart

Teoma
Får sökresultat från:
Google (sponsrade länkar)
DMOz presenterar kategoriresultat
Ger resultat till:
AskJeves

 

HotBot
Får sökresultat från:
Ask (Jeeves)
DMOz presenterar kategoriresultat
Google presenterar sponsrade länkar

 

Dogpile
Får sina sökresultat från:
Ask (jeves)
Google
MSN
Looksmart
Yahoo (även sponsrade länkar)

 

Alexa
Får sina sökresultat från:
Google (även sponsrade länkar)
DMOz presenterar kategoriresultat

 

Alltheweb
Får sina sökresuktat från:
Yahoo! (inkl sponsrade länkar)

 

Altavista
Får sina sökresultat från:
Yahoo! (inkl sponsrade länkar)
DMOz presenterar kategoriresultat

 

MSN
Ger sökresultat till:
Dogpile

 

AOL
Får sökresultat från:
Google (inkl sponsrade länkar)
DMOz presenterar kategoriresultat

 

Ask (jeeves)
Får sökresultat från:
Teoma
Ger sökresultat till:
Lycos
Dogpile
HotBot
Google förser ASK med sponsrade länkar

 

Netscape
Får sökresultat från:
Google (inkl sponsrade länkar)
DMOz presenterar kategoriresultat

 

Google
Ger sökresultat till:
Netscape
Alexa
Dogpile
AOL
Ger sponsrade länkar till:
Lycos
AOL
Teoma
Ask
HotBot
Netscape
Alexa
DMOz presenterar kategoriresultat

 

DMOZ
PRESENTERAR KATALOGRESULTAT TILL:
Lycos
Altavista
Google
AOL
Teoma
HotBot
Netscape
Alexa

Visst är det en salig röra och inte lätt att hålla ordidng på, ens för oss? 🙂

 

Kommer du med på DMOZ har du en gräddfil in till det mesta.
Det är dock inte lätt att komma med där, en bra informativ sajt som förser mervärde till katalogen är enda sättet.
Beskriv sajtens innehåll och inte företagets.
Var noggrann med att välja rätt kategori.
Tips: Det är något lättare att komma med i de regionala delarna.

 

Hans Sandblom
Forskning och utveckling
SEO Logik AB (edit: numera NetBooster)
031-517170

Sökmotorer, robotar & hur en sökmotor fungerar

Alla de “riktiga” sökmotorerna har sina egna automatiska robotar (kallas vanligen spindlare eller krypare) och är utskickade med automatik för att söka efter sajter. Hur fungerar dom? Vad är det egentligen som dom gör? Varför är dom viktiga?

Ni tror säkert att en sökmotor som klarar av att indexera sajter till sina databaser måste vara otroligt kraftfulla program. Detta är helt fel. Sökmotorernas robotar har endast grundläggande teknologi likvärdigt med stenålderns tidiga webbläsare. Deras robotar kan inte klara av vissa saker.
Robotar klarar inte av att läsa ramar (frames), flash uppbyggda sajter, bilder eller JAVA-script. Dom kan inte skriva i ett lösenord för skyddade areor och dom kan inte klicka på alla de knappar som ni har på er sajt. Det blir tvärnit när dom skall försöka att indexera en dynamisk .asp eller .php sida eller likvärdigt samt stoppar även vid JAVA script-baserad navigation eller s.k image-maps.
Hur fungerar då en sökmotor robot? Tänk dig en sökmotor som ett automatiserad datainsamlare, som i princip dygnet runt vandrar över internet för att hitta information och länkar.

När ni har registrerat en länk på en sökmotor med Submit a URL, eller Lägg till länk läggs den nya länken i robotens “kösystem” över sajter som den skall besöka vid sin nästa “krypning” över Internet. Även om ni inte direkt lägger till en länk så kommer många robotar ändå att hitta den beroende på länkar från andra sajter finns tillbaka till er. Detta är en av anledningarna till att det är viktigt att skapa länkar från andra till er sajt (att ömsesidigt byta länkar med andra företag).

När en spindel kommer till er sajt så letar den automatiserade roboten först efter en robots.txt fil. Denna fil talar om för roboten vilka areor på er sajt som är förbjudna för den att indexera, inte vilka som är tillåtna.. Vanliga kataloger är cgi eller andra binära kataloger och lösenordsskyddade areor som det inte är någon mening för den att besöka. En robots.txt underlättar då spindlingsarbetet eftersom den på förhand vet vad den inte får göra.

Roboten samlar upp länkar på alla sidor som den besöker, och i senare skede även besöker dom. På detta sättet så följer sida efter sida på er sajt. Hela www är uppbyggd på länkar, grundidén är att du skall kunna följa länkar från en plats till en annan. Det är så som robotarna också gör.

Det smarta med att indexera sajter on-line kommer från sökmotor ingenjörerna som hittar på metoder för att värdera den informationen som robotarna hittar. När sidorna är indexerade så blir den tillgänglig för användare utav sökmotorn som kan ställa en fråga som vi normalt kallar sökning. Då kommer en massa snabba beräkningar att göras för att sökmotorn skall kunna presentera just det mest korrekta och relevanta resultatet utav din fråga.

Ni kan se vilka sidor av er sajt som en sökmotor spindel har besökt genom att se i era loggar eller från ett statistik program. Identifieringen av robotar kommer att visa när dom besökte er sida, vilka sidor som kan hittas och hur ofta dom besökt er. Några robotar är identifierbara via deras namn, som t ex Google’s Googlebot. Andra kan vara lite svårare att identifiera, t ex Intomis Slurp Andra robotar kan vara listade i era loggar som inte går att spåra, dom ser ut som en vanlig mänsklig besökande webbläsare.

Hur läser dom sidorna på er sajt? När en sökmotor besöker din sida så letar den efter SYNLIG text på sidan, innehållet i dom olika meta-taggarna i källkoden (title, description, keywords etc) och era länkar. Utifrån orden och länkarna som roboten finner så bestämmer sig sökmotorn vad er sida handlar om. Det är en massa faktorer som används för att räkna ut vad som är “viktigt” och varje enskild sökmotor har sina egna algoritmer för att värdera och behandla datan på er sajt. Beroende på hur roboten är konfigurerad gentemot sökmotorn så blir informationen indexerad och levererad til sökmotorns databas.
Informationen som blir levererad till databasen blir föremål för sökmotorn och katalogens ranknings process. När en sökmotorbesökare ställer sin fråga genom en sökning, gräver sökmotorn genom sin databas och presenterar resultaten som ni ser på bildskärmen som svar. Utifrån relevansen och algoritmer.
Sökmotorns databaser uppdateras vid otaliga tillfällen. När ni väl är med i databasen så kommer sökmotorn att besöka er med jämna mellanrum, fånga upp dom förändringar som är gjorda sedan senaste besöket och på så sätt alltid kunna presentera det senaste. Antalet gånger ni blir besökta beror på hur sökmotorn sätter upp sitt schema, vilket varierar mycket bland dom olika sökmotorerna.

Det finns tillfällen då den besökande sökmotorn ej får tillträde till er sajt när den besöker den. Om er sajt ligger nere vid ett sånt tillfälle eller om ni för tillfället har oerhört med trafik så kanske inte sökmotorn kan få tillträde, sånt händer och er sajt blir kanske inte omindexerad. I dom flesta fall som en sökmotor inte får tillträde så försöker den vid ett senare tillfälle och förhoppningsvis så får den tillträde då. Som kuriosa så besökte crawler10.googlebot.com vår sajt 84 ggr under Mars månad och crawler11.googlebot.com sidorna 78 ggr, Inktomis Slurp 4 ggr osv.
Resurser.

SpiderSpotting
Robotstxt.org
Spider-Food

Hur en sökmotor fungerar

Hur gör man marknadsföring av sajten på sökmotorer? Alla ska ha en sajt men hur marknadsför man den på sökmotorer?
När sökmotorerna presenterar sina sökresultat så styrs dom av en algoritm. Denna algoritm är unik för varje sökmotor och dessutom så sker det löpande förändringar vilket försvårar marknadsföring av vår sajt. Som tur är så är det oftast mycket små ändringar och dom sker inte särskilt ofta. Algoritmen tilldelar olika element och egenskaper hos webbsidorna högre eller mindre värde, Med avsikt att åstadkomma så relevanta söksvar som möjligt. Man ska komma ihåg att detta ändras hela tiden, så för att lyckas måste man ha gjort bra ifrån sig i alla element som nämns. De element och egenskaper som ofta viktas upp är:

  • URL:  Sajtens domännamn och sidans filnamn.
  • Title: Den titel som endast visas i söksvar och på sajten.
  • Description: Den osynliga beskrivningen av sidan som endast visas i söksvar.
  • Keywords: Osynliga uppräknade nyckelord.
  • H1-header: Huvudrubrik, storlek kan dock styras med font size eller stilmall.
  • Ingress: Textstycke som följer direkt efter H1.
  • Mellanrubriker: H2, H3 o.s.v.
  • Länkpopularitet: Antalet externa länkar som pekar mot sidan.
  • Länkkvalitet: Hur populär den länkande sajten är.
  • Länktext: Den text som beskriver länken som pekar mot sajten.
  • Klickpopularitet: Hur många som klickat på länken i söksvaret.
  • Returbenägenhet: Att återvända till söksvaret inom en viss tidsrymd.

Spindlar – så här fungerar dom

  • 1. Spindel. Ett robotliknande program som laddar hem hemsidor.
  • 2. Den vandrande spindeln. En spindel som kryper runt på webben och följer länkar på dom olika sidorna som den hittar.
  • 3. Indexer. Ett slags redaktörsprogram som delar upp sajterna som spindlarna samlat ihop.
  • 4. Databasen. Här hamnar sajterna och delas upp i olika element.
  • 5. Sökmotorresultat. Här hämtas det slutgiltiga sökmotorsvaret.

En spindel är ett robotliknande program som tankar hem hemsidor. Fungerar som din webbläsare. När du kopplar upp dig mot Internet så laddas sajten ner i din webbläsare.

Crawlern har ungefär samma funktion som spindeln, men den kan dela upp en sajt och leta, följa länkar. Det är crawlerns jobb att tala om för spindeln hur den ska navigera och hur den ska läsa länkar. Detta sköts av ett special programmerat länk program.

En indexer delar upp sidan i olika element och analyserar den. Som tex. Titel, huvudrubrik, beskrivning, länkar, text, fet stil på text..

Databasen är ett stort varuhus med information om hemsidor som sökmotorerna laddar hem och analyserar.Detta kräver ett enormt utrymme på dom olika servrarna.

Sökmotorresultat. Av allt detta jobb är det resultatmaskinens uppgift att matcha användarens sökresultat. Du gör en sökning i en sökmotor så vet du nu att det ligger ett enormt jobb bakom varje söksvar du får.

När en användare skriver in sitt sökord i en sökmotor och får sitt svar så måste sökmotorn analysera detta ord och vikta upp i vilken kategori det finns i och hur den ska leta för att få de mest relevanta söksvaren. Detta kallas för sökmotorns algoritm (se det översta stycket som handlar om algoritmen.).

Register och sökmotorer: För att hitta rätt i de ofantliga informationsmängderna använder 85 procent av alla användare antingen register eller sökmotorer eller bägge. Sifo Interactive uppger att häften av alla svenska surfare använder svenska sökmotorer och lika många utländska. Varje dag sker omkring 750 miljoner sökningar Begreppet “sökmotorer” används i dagligt tal ofta som samlingsterm för både register och för regelrätta sökmotorer, vilket inte är helt korrekt.

Skillnaden mellan dessa är att sökmotorer läser och indexerar alla ord på sajterna  (upp till 65.000 tecken per sida) och ofta även alla sidor i en sajt, åtminstone ner till fjärde nivån i bibliotekshierarkin. Register presenterar däremot endast sajter, inte enskilda sidor, och ordnar dem i hierarkisk form efter ämnesområden.

Regelrätta sökmotorer är databaser ur vilka information hämtas på begäran, genom att någon gör en sökning. Sökmotorerna erhåller denna information på två sätt. Dels genom att ägare till hemsidor anmäler dessa hos sökmotorn, dels genom att sända ut en s.k. sökspindel. Sökspindeln är en robot som följer länkar i dokument, läser in de sidor som länkarna pekar mot, samlar på sig nya länkar och kryper vidare från sida till sida.

Innehållet i sidorna indexeras och placeras i databaserna, som efterhand får enorm omfattning. Metoden har sin begränsning därigenom att sidor som inte har några länkar pekande mot sig aldrig kommer att upptäckas, såvida ägaren inte registrerat dem hos sökmotorn. Den ofantliga mängden information i databaser kan heller inte nås, eftersom sökspindeln inte förmår att fylla i det formulär (vanligtvis en enkel sökruta) som krävs för att databasen skall skapa en dynamisk sajt.

Färdiga länkar till sökningar i databaser kan i princip följas. En begränsad mängd data i en databas, kan dock varieras på ett oändligt antal sätt. Sökspindlarna kan inte avgöra om så är fallet och ägarna till sökmotorerna vill undvika att deras egna register översvämmas av överlappande information. Man tillåter därför normalt inte sökspindlarna att följa länkar som innehåller frågetecken ”?””=” eller ”&”, vilket indikerar att länken pekar mot en databas. Detta är anledningen till att information i databaser tillhör den osynliga eller ”djupa” delen av webben, som inte indexeras av normala sökmotorer.

Två undantag är f.n. kända från denna regel. Google har under hösten börjat följa länkar till dynamiskt innehåll. Altavista indexerar dynamiska sidor om länkarna till sidorna matas in manuellt i deras anmälningsrutin. Sökningar mot databaser kan bara ske med hjälp av särskild programvara hos användaren själv. Den studie som Bright Planet publicerat torde ha varit avsedd att understödja försäljningen av deras eget nya verktyg LexiBot, som söker av databaser i realtid. Dessa sökningar blir av naturliga skäl mycket tidsödande – 30-40 minuter – men genererar å andra sidan svar som inte kan erhållas på annat sätt.

Även programvara för sökmotorer är lätt tillgänglig som shareware eller freeware. Vanligtvis används dessa för s.k. ”site-search”, d.v.s. sökning i en viss sajt. Men det finns även gratis sökmotorprogram som klarar att indexera externa sajter inom en definierad sfär, t.ex. en bransch eller ett ämnesområde. Det finns därför flera tusen sökmotorer i drift.

Av världens 15 populäraste sajter är 13 antingen register, sökmotorer eller startsidor knutna till sökmotorer eller register. Detta skall dock inte tolkas som att alla användare utgår från sökmotorer när de surfar.

Sett ur användarperspektiv ser det annorlunda ut. För att ta sig till en sajt utgår 36 procent från länkar på en sajt till en annan sajt, 30 procent från en länk på en sida till en annan sida i samma sajt, 28 procent från länkar som sparats på egen dator som ”bokmärken” (i Netscape) eller ”favoriter” (i Internet Explorer) eller från adresser som knappats in i webbläsarens adressruta. Endast 6 procent utgår från sökmotorer eller register. Dessa 6 procent räcker dock för att föra upp de ledande sökmotorerna och registren till den absoluta Internet-toppen. Det är viktigt att inse att länkar som pekar mot en annan sajt, antagligen kommit dit sedan den som lagt ut länken hittat sajten via en sökmotor

Hur gör vi för att komma med igen på sökmotorerna?

Råkar det nu vara så att ni anlitat något oseriöst företag som registrerat er sajt med automatiseringsprogram så kan det vara så att ni ligger lite illa till ! För er som råkat ut för detta, läs vidare nedan.
Google och andra sökmotorer spärrar alla som försöker få högre placeringar via “spam” teknik. Bör marknadsförare vara rädda för detta hot? Hur skulle detta kunna påverka min sökmotormarknadsföring ? Du bör ta det på allvar. Vad kan göras om skadan redan är skedd och ni har bestraffats med detta?.
En sak i taget. Starta med att se över anledningen till att din sida/or har blivit utesluta ur indexet. T ex, Google och dom flesta andra, publicerar en sida med vissa kriterier, er sida kanske inte blir indexerad. Ta en titt på varje sökmotor för att se om ni inte uppfyller dom krav som dom ställer.
Spammingstaktik.

Nedan följer några saker som absolut inte får göras:

 

Cloaking

När en sida blir registrerad på sökmotorerna som inte är företagets rätta hem-sida utan en som är skapad enbart i syfte av att komma högt upp i sökningar. Dessa sidor innehåller normalt sett endast sökmotorgodis, fullständigt irrele-vant för besökaren. Endast för att få med ytterligare sidor och därmed mer trafik.

Omdirigering (meta refresh)

En omdirigering (meta refresh) gör så att besökaren automatiskt vidarebefordras till en annan sida. Där kommer besökaren till sidor som är irrelevanta för deras sökning. Sökmotorerna är mycket restriktiva mot sidor som innehåller en snabb omdirigering (t ex 0 sekunder). Sidor som innehåller Java script för att uppnå omdirigering är också farliga att använda vid sökmotormarknadsföring. Använd en “server-side redirection” om en legitim omdirigering är nödvändig.

Domän-spamming

Identiska sajter som hittas under olika domännamn för att öka trafiken, också känt som “mirror sites”.

Osynlig text

Användare som försöker att gömma nyckelord i samma färg som bakgrunden (vit text på vit botten). Eller ett ännu billigare knep att ha ett lager (layer) med synlighet noll (invisible) eller en X/Y koordinat som gör att den inte syns – allt detta är bannlyst vid seriös sökmotormarknadsföring.

Missledande Titel/Beskrivning/Taggar

Ej relevanta nyckelord i titel och “meta” information. Kom ihåg att vi endast utför “relevansoptimering”.

Missledande länkar

Göra sidor/länkar med den enda anledningen att fuska med sökmotorer.

Överregistrering

Använda massa olika gratis tjänster för att registrera sin sajt med. Detta leder garanterat till spamming eftersom dom flesta använder sig av samma sökmotorer, gör det kontrollerat eller kontakta oss.

Om ni åker dit

Om ni medvetet (eller omedvetet) spammar sökmotorerna med någon av ovanstående tekniker och åker dit. Borttagningen av era länkar kommer att bli smärtsam ur trafiksynpunkt. Spamming är inte värt dom temporära vinsterna. Sökmotormarknadsföring är en långtidsverkande marknadsföringsinvestering, så äventyra inte din placering med någon form av spamming på sökmotorerna. Dom har många sätt att upptäcka detta med sina filter. Många användare är dessutom flitiga på att rapportera in fuskare. (vi till exempel 🙂 och det är faktiskt vår skyldighet. Så även om du kommer igenom filtrerna några gånger så riskerar du anmälning. Framför allt av dina konkurrenter.

Komma tillbaka på Google. Om din sajt blivit borttagen ur Googles databas, det första du måste göra är att rensa upp er sida/sidor och göra en omregistrerings anmälan till help@google.com. Google kommer troligtvis inte att ge några som helst garantier om eller när dom kommer att indexera er sajt igen. Om allt är i sin ordning så borde er sajt kunna finnas med i databasen efter en månad, vid deras nästa uppdatering. Man kan också kontakta dom per telefon och dyrt och heligt medge att man gjort ett grovt misstag samt att det aldrig kommer att upprepas.

Innan ni registrerar er sajt

Se till att ni inte har några tekniska problem på er sajts server. Hittas ni inte så tas ni automatiskt bort. Använder ni er av Ramar (frames) eller enbart flash så kommer ni att ha stora problem att komma på bra placeringar, men det finns lösningar på det med. Kontakta oss så kan vi hjälpa er.
Generellt kan sägas att det bästa är att registrera sin startsida. Men har man andra relevanta sidor så kan man registrera dom med. Men var försiktig, registrera endast en gång och kontrollera efter en månad om ni kom med. Registrera inte igen, Google gör en ny indexering så småningom. Var er placering dålig så ändra informationen, registrera inte igen, vänta ett tag och kontrollera igen, osv, osv. Vissa sökmotorer ser det som spamming om ni registrerar er mer än en gång. Läs noggrant igenom reglerna eller låt oss sköta er sökmotormarknadsföring, vi har kontroll.