Google kender til over en billion sider på den verdensomspændende internet, og der findes mange milliarder sider i søgemaskinens bibliotek. Googles bibliotek bliver skabt ved, at en Google-bot, også kaldet en crawler, følger links rundt på tværs af domæner.
Ikke alle sider er nødvendige at forstå for Google. De bliver derfor ikke indsat i Googles bibliotek af sider, som er værd at vise i søgeresultaterne.
Men vidste du, at over 90 procent af indhold ikke får nogle besøgende fra Google?
For at være sikker på, at dit indhold bliver vist og får trafik, er det væsentligt, at du forstår eller i det mindste har en idé om, hvordan Google forstår og klassificerer dit indhold.
Det skal vi kigge nærmere på i dette blogindlæg.
Alle der skriver, filmer eller på anden måde producerer content rettet mod andre ønsker, at det bliver vist i Google. Google står nemlig for omkring 90 procent af alle søgninger. Derfor er det at blive prioriteret af Google et must, hvis du ønsker at få organisk trafik til dit content.
At en side bliver besøgt, læst og forstået af crawleren fra Google og derefter vist i søgeresultaterne er det, man kalder en indeksering.
Googles ideologi er at have kendskab til alle sider, men ikke nødvendigvis indeksere dem alle.
Men hvorfor vil Google ikke have alle sider i deres bibliotek?
Der er flere årsager, men for at nævne nogle:
Google skal ses som et kæmpe (læs: KÆMPE!) stort bibliotek, hvor hver en enkelt (relevante) side på nettet er forstået, læst og “gemt”. Bid gerne mærke i, at vi skriver side og ikke domæne. Hver enkelt side bliver nemlig forstået og indekseret for sig.
Google har altså et kæmpe katalog af individuelle sider – en database om du vil.
Det lyder ret simpelt, men det bliver hurtigt mere kompliceret.
Har dit website problemer med jeres indeksering, har vi også skrevet en guide om det her: Typiske problemer med indeksering og løsninger.
Google har implementeret flere ting i deres algoritme, som alle er med til at vurdere hvor en side skal befinde sig i SERP (search engine result page) for et søgeord.
PageRank, Core Web Vitals og Helpful Content Update. Bare for at nævne nogle få rangeringsfaktorer.
Enormt kompliceret emne, men meget kort fortalt, så er det autoritet, som skabes gennem andre sider, der linker til din.
Hvis man skal prøve at male et billede, så forestil dig, at du er i Rom og spørger 10 tilfældige mennesker på gaden, hvilken isbutik sælger den bedste is. Hvis alle 10 mennesker siger den samme isbutik, så vil troværdigheden til den isbutik stige. Lad os nu sige, at de 10 tilfældige mennesker alle viser sig at være professionelle is-anmeldere, så er troværdigheden endnu højere. PageRank er Googles måde hvorpå link vurderes som anbefalinger ud fra relevans, autoritet og troværdighed.
Konkrete målinger, som Google crawleren laver på en side om hastighed og brugervenlighed på siden.
I takt med at vi bliver mere og mere mobile, sker langt de fleste af vores daglige søgninger også på farten. Derfor er det vigtigt, at din side både fungerer på mobil og computer, men hvad indebærer begrebet “fungere”?
Core Web Vitals er Googles forsøg på at vurdere, hvilke tekniske aspekter, der skal være i orden på en side for at skabe en god brugeropelevelse. Herunder er ting som hastighed, og at elementerne ikke hopper på siden, så man ender med at klikke på noget man ikke ønskede.
En opdatering, som havde fokus på at præsentere Google-brugere for det mest originale, relevante og bedste indhold.
Læs mere om updaten, og hvordan du laver content under den nye algoritme her.
Rigtig meget af det content, vi ser i dag, er ikke skrevet af eksperter, og er hovedsageligt skrevet for at rangere på et attraktivt søgeord. Der er intet galt i at gå aktivt efter specifikke søgeord, men leverer du nyt og originalt indhold eller har du bare omskrevet andres eksisterende indhold?
Yderligere har udviklingen inden for AI og automatisering gjort det nemmere end nogensinde at “spinne” tekster, altså få AI til at skrive tekster for en. Helpful Content Update er skrevet for at sortere det uoriginale og uoplysende fra, og præsentere læseren for det, som giver ny viden.
For at indeksere skal Google først “finde” din side, eller rettere sagt Googles crawler skal. Crawleren forbinder sig til forskellige webservere omkring i verden, og beder så serveren returnere specifikke URL’er, som den så scanner for hyperlinks, som er eventuelle links til nye sider, som den foretager samme process for. Hvert specifikke undersøgte og opdagede URL får et unikt ID.
Ovenstående process foretages milliarder af gange, så der opstår hurtigt ret mange unikke ID’er.
Crawleren har skabt milliarder af unikke dokumenter, men hvordan matcher Google så en søgning med en søgefrase?
Google laver et index over indholdet i dokumenterne, men i stedet for at læse og gemme et helt dokument, så noterer den, i hvilke dokumenter et ord optræder.
Lad os tage sætningen:
“Vil du være sød at pege den giraf et andet sted hen, så vi kan komme tilbage til en nogenlunde ordentlig dialog igen!”
Her kunne en opdeling være:
Dokument 1: Vil du være sød at pege den giraf et andet sted hen
Dokument 2: Så vi kan komme tilbage
Dokument 3: Til en nogenlunde ordentlig dialog igen!
Så vil ordene “Vil” og “Du” blive gemt som 1,1 og 1,2
Ordene “så” og “vi” blive gemt som 2,1 og 2,2
Ordene “nogenlunde” og “ordentlig” blive gemt som 3,3 og 3,4.
Søgningen “Sommer i Tyrol”, vil derfor deles op i “Sommer”, “i” og “Tyrol”.
“Sommer” forekommer både på sider såsom IMDB og rejsebureauer, og det samme er gældende for “Tyrol”, men dokumenter som indeholder både “sommer” og “tyrol” er langt færre end volumen af dokumenter, som indeholder de enkelte ord.
Hvert relevant dokument får en IR eller Information Retrieval score for en søgefrase.
Meget forenklet, så bliver denne IR bliver baseret på:
Denne IR bliver også holdt op mod et dokuments PageRank.
Så Google bruger IR og PageRank til at ranke de forskellige dokumenter, som er relevante for de søgte søgeord. Men.
IR er ikke én algoritme, men mange små algoritmer, der alle hjælper til at forstå dokumentets indhold og kvalitet.
Udover IR og Pagerank vurderer Google også dokumenter ud fra:
At blive 100 procent ekspert i Googles algoritmer er umuligt. Årsagen er, at Google holder kortene enormt tæt på kroppen, når det kommer til, hvordan de opdaterer deres algoritmer.
Google prøver at tage, hvad de kan se har betydning for deres brugere og omsætte det til signaler, som kan implementeres i algoritmer eller omdannes til machine learning.
Det kan derfor være svært for det utrænede øje at vurdere, hvor ens virksomheds ressourcer er bedst givet ud.
Vi anbefaler derfor altid at begynde med fundamentet:
Det nytter ikke noget at lave fantastisk content, hvis din side ikke er mobiloptimeret eller har andre tekniske problemer. Hvis dine brugere skal vente mere end 2-3 sekunder på at få sidens indhold serveret, så vil det give mening begynde at optimere her først.
Med indhold, der er for teknisk, mener vi, om I har undersøgt, hvor i købsrejsen kunden er, når de søger på det ønskede søgeord. Hvis I laver søgningen nu og Wikipedia rangerer, så er eventuelle læsere nok I begyndelsen af deres “forståelse” indenfor området. Derfor skal artiklen skrives, som skulle du forklare emnet til en der kun lige har stiftet bekendtskab med søgeordet.
Derefter, når selve fundamentet spiller til UG, og du har skabt en god ramme at skabe fantastisk indhold i, så begynd at arbejde med de enkelte sider og indlæg.
Efter at have læst ovenstående, burde du være bedre klædt på til at kunne skabe og bedømme dit nuværende indhold, men for at simplificere det endnu mere, har vi lavet en spiseseddel:
Kort sagt gælder det derfor om at give algoritmen så mange af de rigtige signaler om, hvorfor netop jeres indhold er værd at vise, men for at gøre det, så skal man vide hvilke signaler Google vurdere indholdet efter.
disse indlæg om SEO
Der er ingen kommentarer endnu.
Vær den første til at kommentere.