… siger rygtet. Det siger Google på sin officielle blog. Det siger sund fornuft – og det viser paralleller mellem råd, som Usability-folk som Jakob Nielsen og SEO’ere giver til hver sit publikum
Mikkel Demib er inde på det i indlæggene Drop optimering til søgemaskiner og SEO-tekster er noget lort. Han taler om, at hans firma allerede for 10 år siden droppede, hvad han kalder ’Reversed Engenering’ i SEO – det vil sige disciplinen, hvor du forsøger at få websites til tops i søgemaskinerne ved at lure maskinens algoritme af og optimere hjemmesiden derefter.
Problemet med SEO-reversed engeneering
… er, at søgemaskinerne hele tiden ændrer deres algoritmer. Hvad der virker i dag, virker ikke nødvendigvis i morgen.
Desuden er det uendeligt svært at teste om, du har forstået algoritmen korrekt.
Hvad angår testing tager det i tilfældet Google op til tre måneder, før du for alvor kender effekten af din søgemaskineoptimering. Og det kan tage endnu længere tid på nye domæner simpelthen fordi, det er sværere at skabe resultater på unge domæner. Du forledes ligefrem til at redigere SEO, der allerede er i orden, men som endnu ikke har fået tid til at virke.
SEO’ere har brug for andre retningslinjer.
Demib foreslår, at du optimerer til brugerne.
Argumentet er dels, at det kan være lige meget med en topplacering i Google, hvis ikke dokumentet konverterer – og dels, at det er brugerne som søgemaskinerne søger at tilfredsstille. Tilfredsstiller du dem, vil søgemaskinerne også tilfredsstille dig.
Googles officielle udmelding
Men hvordan optimerer du lige til brugerne?
Jeg læste Demibs indlæg og tænkte ikke videre over det. Indtil for et par uger siden, hvor jeg genlæste nogle artikler af den danske Usabily-guru, Jakob Nielsen.
Specielt én, nemlig Scrolling and Attention sprang i øjnene. I forlængelse af Demibs skriverier gik det op for mig, at holdbar SEO altid foregår i overensstemmelse med Usability og at Usability giver guidelines for optimering til brugerne – guidelines, du kan stole på over tid.
På Googles officielle blog hedder det:
Another team in our group is responsible for evaluating how well we’re doing. This is done in many different ways, but the goal is always the same: improve the user experience. This is not the main goal, it is the only goal.
Google er en søgemaskine. Den har eet formål, nemlig at servicere dig – give dig mulighed for at finde, hvad du søger efter. Usability giver retningslinjer for, hvordan du servicerer folk på nettet. Usability er kunstens regler. Derfor virker ingen SEO i længden, hvis ikke den øger brugervenligheden!
Er det ikke sund fornuft?
Usability og SEO følges ad på mht. webtekster
Men ikke kun sund fornuft og Googles eget udsagn begrunder, at SEO og Usability følges ad.
Der findes for eksempel klare paralleller mellem SEO- og Usability-råd til, hvordan du skriver gode webtekster.
Når du gennem søgeordsanalyse får at vide, hvilke ord, du skal optimere efter for at drive kvalificeret trafik til dit website, er spørgsmålet, hvordan du skal skrive indlægget, så det konverterer – så folk ringer, lægger i kurv, skriver sig op til dit nyhedsbrev eller på anden måde gør, hvad du vil have dem til.
For det andet skal du vide, hvor ordene, du vil findes på, skal placeres i dokumentet for, at indlægget rangerer så højt som muligt i søgemaskinerne.
Du finder mange vejledninger til effektive SEO-tekster rundt på Nettet.
Skriv ord, du vil findes på i
• url’en
• tags i backend
• overskrifter
• brødtekst
Nu lyder det som om, at du skal placere dine keywords overalt, hvor du kan. Sådan er det også, men med måde – og rådene er faktisk mere konkrete end det.
For eksempel
• Placer keywords så langt fremme – helst først – i afsnit, du skriver.
• Placer keywords i begyndelsen og slutningen af dokumentet.
Hvorfor?
Jo – er det ikke klart, at når søgeordet står over det hele på din side – i url, backend, titler, overskrifter, brødtekst mv. – så handler indlægget om keyword og så skal det ranges højt på listen af link, som Google spytter ud på søgeordet?
Sådan må det være. Problemet er, at du kan manipulere parametret. Ved at proppe søgeordet ind alle mulige steder kan et mindre godt website få sine sider til at rangere over bedre websites. Ifølge Demib, var det sådan man gjorde i SEO’ens barndom – men det virker ikke længere.
Google blev klogere
Imellem tiden er Google blevet klogere – algoritmen mere kompleks. Google gennemskuer keyword-stuffing – og benytter sig af en række andre parametre, der i højere grad garanterer, at brugerne får de bedste resultater af deres søgninger.
Men, hvilke parametre er det så?
Ja på flere punkter matcher Usability-guidelines disse guidelines for SEO.
#1 – placer søgeord først i teksten
Det viser sig, at over 80 % af den samlede opmærksomhed, der gennemsnitligt placeres på en side på et website koncentreres i første skærmbillede.
Jakob Nielsens grafik, som jeg med tilladelse har lånt fra useit.com, illustrerer forholdet:
Det ved Google. SEO’ere har regnet Google ud og råder os til at placere flest mulige keywords øverst i artiklen.
#2 – placer søgeord sidst i teksten
Under 20 % opmærksomhed samles nedenfor første skærmbillede. Ud fra grafen kan vi ikke konkludere, at brugerne giver ekstra opmærksomhed til bunden af webteksten. Godt nok placerer sig markant mere opmærksomhed fra 2.000 pixel og videre ned i teksten end i højden 800-1.900 pixels. Jakob Nielsen har dog ikke kun testet tekster med en højde på 2.000 pixel. Nogle af teksterne er meget længere – over 4.000 pixel, som han skriver.
Men der er indikationer på forholdet i dette billede:
Cirklerne på screen-shots markerer steder, hvor brugerne stopper op og fikserer opmærksomheden på passanger i teksten. På skærm-billedet til venstre, der viser eye-tracking af et rent tekst-dokument, ser du, at der findes markant flere fikserings-punkter helt til sidst i dokumentet.
Det ved Google også. SEO’ere har regnet Google ud og råder os til at placere flest mulige keywords nederst i artiklen.
#3 – placer søgeord først i dine sætninger
I artiklen Passive Voice Is Redeemed For Web Headings viser Jakob Nielsen, at brugerne er mest tilbøjelige til at læse de 2-4 første ord i web-tekstens afsnit.
Derfor giver han forfatteren lov til at bruge inaktivt sprogbrug i titler, resume, overskrifter, ankertekst, punkopstillinger etc. – for så vidt sprogbrugen placerer de for indlægget mest relevante ord først i sætningen. Her bliver de læst og det øger brugervenligheden.
I al professionel offline skriveri betragtes inaktivt sprogbrug ellers som en begynderfejl. Det gælder med undtagelse af skriveri fra akademiske kredse, hvor man nok er god til at bruge fremmedord, men sjældent til at levere læselige tekster.
… men også det ved Google. Også det har SEO’erne regnet ud. Derfor råder de dig til at placere keywords først i dine sætninger – både i overskrifter, brødtekst etc..
Hvorfor brugerne viser denne adfærd, kan du dykke dybere i på www.useit.com. Læg i øvrigt mærke til, at SEO’ernes rådgivning ikke formidler de store nuancer. Det gør til gengæld Jakob Nielsen. Han forklarer præcist, hvordan du gør.
SEO er Usability – Off Page optimering.
I Usability-perspektiv er backlinks fra linkkataloger inderligt ligegyldige. Det er de også blevet i SEO, hvor Panda har elimineret deres betydning.
Igen er brugervenligheden på spil i links, du får naturligt, fordi du skriver ting, folk kan bruge og gider linke til. Også indlæg, der deles på sociale medier, opprioriteres af Panda.
Snart er den eneste linkbuilding, der virkelig bærer juice, den, du laver i gæsteindlæg eller fra betydningsfulde sider pr. exchange med andre websites.
Gad vide i øvrigt med udgående ‘follow-links’? Jeg har placeret flere her i teksten – også på prominente steder (Demib) – og tror ikke, at folk bliver dummere af at følge dem. Er der nogen, der ved, om de også giver juice til mig? Det burde de jo faktisk og det kommer de vel også til med tiden. Også de er del af den samlede værdi, indlægget repræsenterer.
Usability-guidelines ændrer sig ikke over tid
Viste du i øvrigt, at 80 % af de Usability-guidelines, som Jakob Nielsen har kortlagt siden 1994, stadig gælder i dag?
Jakob Nielsen pointerer igen og igen, at Usability ændrer sig minimalt over tid.
Nogle guidelines har rod i vanen og måden, vi er vant til at bruge Nettet. For eksempel var der før 1997 meget få, der scrollede under første skærmbillede. Det har ændret sig siden.
Andre har rod i det menneskelige sind, der ikke har ændret sig væsentligt siden evolutionen af homo sabiens.
Hvorom alting er, bør du forestille dig en verden, hvor du har fastere rammer i dit arbejde med SEO – hvor du stoler på og følger guidelines, som ikke ændrer sig synderligt over tid.
Hypotesen er, at der tilsyneladende ingen mere nuancerede og blivende guidelines findes for SEO end dem, Jakob Nielsen og hans lige giver os. Huske også, at guidelines også hjælper dig til en bedre konvertering.
Har jeg ret?
Jeg er overbevist om, at der findes mange flere paralleller mellem SEO og usability end dem, jeg viser her. Det må der gøre, hvis Google altid forsøger at give brugerne den bedste oplevelse, dvs. de mest relevante og dygtigst udførte resultater, der matcher ordene, du bruger i dine søgninger. Spørgsmålet er selvfølgelig, om jeg har ret. Findes der så mange paralleller mellem SEO og Usability, som jeg indikerer?
Ser du også lyset og har du eksempler på paralleller, jeg ikke er nævner – så kast en kommentar!
Finder du kendsgerninger, som mit indlæg ikke tager højde for? Marcherer jeg ud, hvor jeg ikke kan bunde og bør jeg hive ordene i mig igen – er du også meget velkommen til at sige det nedenfor.
{ 11 comments… read them below or add one }
Det er en sandhed med modifikationer, søgemaskiner som Google fortæller de er blevet så gode til at sortere i websites, så de websites, der fremstår på bedste måde vil blive prioriteret i toppen af søgeresultaterne.
De er ikke kommet så langt i denne proces endnu.
Websites der ligner L… kan optimeres til at ligge i top på gode keyword uden problemer, forholdsvis hurtigt, der er ikke tale om hverken 3 eller 6 måneder, en lille uges tid er som regel nok til at se effekten af en optimering.
Keyword-stuffing fungerer ikke i dag, da søgemaskinerne godt kan se de mange gentagelser, men at anvende en korrekt keyword-density for et keyword kan også udføres i en dårlig tekst, det kan søgemaskinerne ikke se.
Hej Rene
Tak for din kommentar.
Det kan sagtens være, at Google overdriver en smule på sin blog for at få folk til at lave gode websites i stedet for godt optimerede halvdårlige af slagsen. Jeg siger ikke, at reversed engeneering ikke virker – kun, at du ikke kan stole på teknikken i længden.
Hvad angår tid det tager, før din SEO træder i kraft, så er der selvfølgelig stor forskel på, hvilke manøvrer, vi er ude i. Hvis jeg lige pludselig opdager et keyword med mange søgninger og lav konkurrence, tager det mig ikke særlig lang tid at ranke på ordet, hvis da ordet ligger i tråd med materiale, jeg allerede har publiceret på mit website.
Så passer en uge måske meget godt.
Men hvis jeg skal til at redirecte siderne på et gammelt website til et nyt superbrugervenligt og top-SEO’et site på et andet domæne, kan det tage langt længere tid at få det nye site op på samme ranking som det gamle. Det gør det, selvom det nye domæne har næsten lige så mange år på bagen, som det gamle. Det ved jeg af egen erfaring. Jeg var ude for det på et site, hvor der endda kom over dobbelt så megen tekst på i forhold til sin oprindelige udgave.
Vh. Torben
Jeg lagde et nyt site for et advokatfirma på et nyt domæne i slutningen af sidste uge, domænet var 4 timer gammelt (købt samme dag) og ca. 15 min. efter det gik online rankede det på de søgeord, som virksomheden ønskede at ranke på, det ligger ca. midt på side 1 på Google på denne søgning.
Det er klart det ikke er et ord som børnetøj eller vvs, ord som tager længere tid at få ind og ligge stabile – grundet de mange forretninger i disse brancher, der alle udfører SEO på deres sites og søgeord. Jeg har imidlertid kunder. der ligger på site 1 på disse ord og har gjort siden vi begyndte at optimere deres sites helt tilbage i 2004 – 2005, så jeg kender vejen.
Det med der behøver at gå lang tid er ikke korrekt, men nye sites har en tendens til at synke lidt efter indekseringen for derefter at komme tilbage igen.
Vi har indekseret mange nye websites på under 5 minutter på Google, der kan søgemaskiner som Bing ikke være med.
Jeg siger nu heller ikke, at det nødvendigvis SKAL tage hverken tre eller seks måneder, men på sitet, jeg taler om, tog det bare laang tid før, det fik ligeså meget søgetrafik, som det gjorde i sin gamle form.
… Det, der skete var, at sitet først skød helt til vejrs på søgeordene, jeg valgte at optimere efter. En tre-fire dage senere forsvandt det nærmest fra Google. Så dukkede det op igen og efter en måned placerede det sig nogenlunde stabilt på meget bedre placeringer end før – men søgetrafikken fulgte ikke rigtig med. Der gik mindst to måneder før sitet fik den søgetrafik, det fik før, jeg pillede ved det. Derefter steg søgetrafikken stødt de følgende tre måneder uden, at der mig bekendt blev publiceret nyt materiale på sitet. Placering på de enkelte ord steg også ganske roligt.
Hvordan forklarer du det?
Jeg er sikker på, at det ikke havde noget at gøre med, at min søgehistorik gav indtryk af højere placeringer på Google, end tilfældet faktisk var, fordi jeg tjekkede placeringerne fra forskellige computere og endda fra forskellige IP-adresser.
Hej Torben
Min erfaring med nye websites på Google, er at de skyder op i første hug med de placeringer, hvor de rent faktisk vil lande, men Google vil typisk sætte et nyt site tilbage i den indledende fase med en faktor, det svinger fra søgeord til søgeord.
Denne proces kan dog forhindres ved at stabilisere det nye site med linkbuilding i et fornuftigt niveau, ikke for meget og ikke for lidt, hvis der kan skaffes trustede links fra store sites, så ophæves denne midlertidige barriere/ filtrering omgående, og sitet vil ligge stabilt.
Den største faktor i moderne søgemaskineoptimering i dag er stadig sammensætningen af en link-pallette, der matcher sitet. Hvis sitet så samtidig har en fornuftig keyword-density og en korrekt indlæsningsrækkefølge af html delen på sitet, ingen dublicate content og relevant indhold, så vil topplaceringerne hurtigt kunne skaffes.
Hellere en lavere keyword-density end en for høj, den lavere density kan kompenseres via mere målrettet linkbuilding på eksterne linkprofiler. Samtidig fremstår sitet mere clean i forhold til brugerne.
Søgetrafikken og faldet i den kan jeg ikke umiddelbart give dig svar på, det kræver jeg har dine analytics data. Der kan være forhold som søgeord og andre faktorer, der har genereret denne trafik, men har du analytics-data, så er det muligt at give et korrekt svar på dette spørgsmål.
Jamen tak for kvalificeret feedback René. Jeg undersøger sagen nærmere via GA.
Har du evt. en kommentar til spørgsmålet om udgående links, som jeg stiller nederst i indlægget? Giver de allerede juice til mig? Tror du, de vil det i nærmeste fremtid? Eller længere ude i fremtiden? De gør jo i hvert fald ikke indlægget ringere.
Man kan aldrig overføre fuld linkjuice fra et gammelt website med 301 redirect.
Der vil typisk overføres et sted imellem 50 – 70% af det tidligere domænes trust.
Søgemaskinerne er nød til at give en lavere værdi af de enkelte links, ellers ville en virksomhed som min og andre SEO virksomheder kunne flytte linkjuice rundt i en lind strøm, og have et godt værktøj til at skaffe højere placeringer.
Ved denne linkværdireduktion af 301 redirects, som Google bla. selv beskriver, fjerner/reducerer de mulighederne for manipulation, men relevante sider får lidt af den tidligere popularitet med, og folk der har bookmarket siden vil lande på en identiske side i forhold til det de bookmarkede.
Derfor skal man altid have en linkstrategi på plads samtidig med man flytter et site, således der støttes op med nye relevante links .
Ok, det forstår jeg – dvs. jeg kendte ikke de faktiske tal eller mulighederne for manipulation – så tak for info.
Jeg tænkte dog mere på almindelige udgående links fra sider og indlæg på din hjemmeside. Du ser fx, hvordan jeg linker til både Demib og Jakob Nielsen. Det er alt sammen follow-links. Jeg har læst, at mange af dem kan med til at dræne sitet, men hvad er lige logikken i det, når ikke den udgående linking overdrives?
Som jeg kan se det, er udgående links, som mine, en god ting fra et Usability-synspunkt. De henviser til kilder og andet relevant materiale – burde de så ikke også i et SEO-perspektiv give juice til mit indlæg? Gør de det allerede? Hvis ikke (som nok er tilfældet), tror du, at de kommer til det i fremtiden?
Links ud fra en side til eksterne websites fjerner ikke noget af din egen linkværdi på siden.
Der er en vis værdi til rådighed til at sende videre, den pågældende webside taber ikke nogen “egen” værdi ved at linke ud, og har fuldstændig samme linkværdi.
Med og uden nofollow, her er det efterhånden blevet en standard på blogs mv. at undgå dofollow, det skyldes at søgemaskinerne har tudet brugerne ørerne fulde af at ved brug af et nofollow tags på udgående links, så er man SAFE, men igen her, er det en sandhed med modifikationer.
I praksis betyder det ikke noget at linke ud af domænet, man skal dog ikke give alle spamrelaterede websites adgang til at koble sig på her, det er en anden sag.
Både dofollow og nofollow links på en side deler den værdi, der samlet er til rådighed, hvis der f.eks. oprettes et link med dofollow og ni med nofollow, så fordeles vægten ligeligt imellem alle links, og på lige vilkår, uanset om nofollow linket ikke modtager nogen værdi. Jo flere udgående links, des mindre værdi til det enkelte link, så man kan ikke dræne en side for linkjuice, det der sker, er at de sider, der modtager værdi får noget mindre.
Prøv at læse om Googles PageRank http://www.onlinemarketing.dk/pagerank.html og http://en.wikipedia.org/wiki/PageRank
Ok super René – mange tak for info og din tid 🙂
Fedt med så meget lækker info man får herinde..
{ 1 trackback }