Blog

Teknisk SEO

Teknisk SEO

För att din webbplats ska kunna synas på Google måste sökmotorn hitta ditt innehåll, läsa av det och förstå det. Ovanpå detta är det viktigt att sajten är användarvänlig, oavsett om den besöks via en dator, mobil eller surfplatta.

Teknisk SEO är en samling metoder och aktiviteter som optimerar din webbplats mot detta och inkluderar bland annat:

  • Crawling och indexering: Se till att Google hittar alla dina viktiga sidor och indexerar dem (lägger till innehållet i sin databas “Google Index”)
  • Hastighet: Se till att webbplatsen laddar snabbt
  • Mobilvänlighet: Se till sajten är användarvänlig på mobiltelefoner
  • Strukturerad data – Applicera strukturerad data så att Google bättre förstår ditt innehåll

Man kan säga att teknisk SEO är förutsättningen för att dina övriga SEO-projekt ska kunna bära frukt. Oavsett hur bra innehåll du har, kommer din webbplats aldrig att nå toppen av Google om du inte har en solid teknisk grund. 

I den här guiden kommer vi gå igenom de olika områdena och vad du kan göra för att få alla bitarna på plats.

Hur hittar Google innehåll?

För att Google ska kunna ta del av allt innehåll som finns på webben använder de sig av ett program (web crawler) som kallas för Googlebot. 

Googlebot letar sig igenom (crawlar) allt innehåll den kommer över och kopierar det till en massiv databas – Google Index. 

När någon utför en sökning på Google hämtas svaren från indexet och presenteras i Googles sökresultat.

image

Crawling

Googlebot crawlar webben genom att besöka och läsa av sidor för att sedan klicka sig vidare via de länkar som den stöter på. På så vis kartlägger den internet, relationerna mellan sidor på webblatser och hur de relaterar till andra, externa sajter.

Det är viktigt att se till att Googlebot kommer åt alla de sidor du vill att användare ska hitta, när de gör sökningar på Google. För att möjliggöra detta behöver du skapa interna länkar mellan sidorna, mer om det nedan.

Om din webbplats är helt ny behöver du först av allt introducera din webbplats för crawlern.

Så presenterar du din webbplats för Googlebot

För att Googlebot ska kunna crawla din webbplats behöver den hitta till sajten, vilket den kan göra på tre sätt:

  1. Du skickar in en sitemap till Google
  2. Du ber Google indexera din webbplats
  3. En annan webbplats som Googlebot crawlar länkar till din webbplats

Du kan inte tvinga någon att länka till dig, så de säkraste (och enklaste) sätten är att du laddar upp en sitemap och/eller ber Google att indexera din webbplats. Detta gör du med hjälp av Google Search Console (GSC) – ett gratis verktyg som du kopplar till din webbplats.

image

Source: Google Search Consoles start-sida

Ladda upp sitemap i GSC

En sitemap är en kartläggning av de sidor som finns på din webbplats och som du vill att Googlebot ska besöka. I praktiken är det en lång lista av URL:er som Google kan läsa av.

De flesta CMS kan generera sitemaps automatiskt, med rätt tillägg eller inställningar.

image

Så här ser Klikkos sitemap ut, genererad av Yoast SEO

Du kanske redan har en sitemap, då hittar du den oftast under:
dinsajt.se/sitemap.xm
dinsajt.se/sitemap_index.xml 

Du kan också titta i din robots.txt-fil, där finns sitemap ofta med. Robots.txt hittar du under:
dinsajt.se/robots.txt

image

Om du inte hittat sitemapen än kan du testa att använda dig av Google Search Operators. Skriv in följande rad i webbrowsern:
”site:dinsajt.se filetype:xml”

image

Om du fortfarande inte hittat din sitemap kan du se dokumentationen från ditt CMS var sitemaps lagras.

När du hittat din sitemap laddar du upp den via GSC genom att klicka på “Sitemaps/Webbplatskartor” i sidomenyn:

image

Därefter klistrar du in adressen för din sitemap och klickar på “submit/skicka in”

image

Det kan ta några dagar innan Google processar och accepterar sitemapen. När det väl är färdigt kommer verktyget att ge insikt i vilka sidor Google hittat och framför allt, vilka den valt att indexera (eller inte).

Be om indexering i GSC

Via URL Inspection tool i GSC kan du be Google att indexera specifika URL:er, så knappa in din hemsida här:

image

Därefter kan du be Google att indexera webbsidan:

image

Google kommer att besöka webbsidan och, om du har en fungerande intern länkstruktur, crawla resten av sajten och förhoppningsvis indexera innehållet. Vi återkommer till indexering senare.

Webbplatsstruktur och interna länkar

Google tycker om lättnavigerade webbplatser, precis som vilken besökare som helst. Helst ska varje sida kunna nås via så få klick som möjligt från startsidan. Det underlättas med en platt och logisk webbplatsstruktur


En bra lösning är att skapa en tydlig kategoristruktur med huvudkategorier som länkar till relevanta underkategorier, vilka i sin tur länkar till produkter och tjänster. Enklast är att illustrera det med ett exempel från en hypotetisk webbshop som säljer hemelektronik:

image

Med denna struktur blir det enkelt både för en besökare och Google att göra en logisk resa från startsidan till produkt genom att klicka på

  1. Huvudkategori (Mobiltelefoner)
  2. Underkategori (Märke)
  3. Produkt (Specifik mobiltelefon)

Alla produkter nås via tre klick från startsidan, vilket är ett bra klickdjup. Du vill inte gömma sidor för djupt på din webbplats, det gillar vare sig Google eller användare.


OBS! Det kan ofta vara relevant att börja visa produkter redan under huvudkategorin, alla mobiltelefoner i mobiltelefon-kategorin ovan, exempelvis. Se nedan hur det kan se ut i verkligheten:

image

Exempel på på bra kategoristruktur från prisjakt.nu

Med en tydlig struktur och hierarki blir det enkelt att skapa nya sidor och placera dem rätt. Det minimerar också risken att du skapar orphaned pages (föräldralösa sidor), alltså sidor som inte har någon länk till dem. Om sidor inte har länkar till dem finns det risk att de inte indexeras, även om de finns med i din sitemap. Och även om de indexeras är det en dålig rankingsignal för google att de inte har några internlänkar.

Så skapar du en bra struktur

Visualisera dina sidor, hur de hänger samman och skapa därefter en kategorisering. Detta gäller både för e-handlare och tjänsteutövare. Till exempel skulle en advokatbyrå kunna ha affärsjuridik och privatjuridik som huvudkategorier. Därunder skulle de sedan kunna samla:

  • Affärsjuridik – Arbetsrätt, Avtalsrätt, kommersiella tvister med mera
  • Privatjuridik – Familjerätt, Migrationsrätt, konsumenttvister med mera

Under familjerätt skulle än mer specifika tjänster kunna finnas som fullmakt, skilsmässa, vårdnadstvist med mera.

För att hjälpa besökarna med informativa sidor kan de också har en blogg, vilken får leva för sig själv. Då hade den slutliga strukturen sett ut så här:

image

Alla sidor nås via maximalt tre klick från hemsidan och strukturen är användarvänlig.

Genom att skapa den här typen av arkitektur för webbplatsen kommer Google lätt att kunna crawla och förstå relationerna mellan sidorna.

När du har struktur och sitemap på plats är det dags att förstå om och hur Google indexerar din webbplats.

Indexering

Indexering är metoden som Google använder för att lagra och organisera de sidor som den crawlat. Men, bara för att Google crawlar dina sidor är det inte garanterat att de läggs till i indexet. 

Du kan kontrollera om dina sidor indexeras på olika sätt:

1. Google Site Operator

Öppna en browser och skriv följande i sökfältet:
site:dinwebbplats.se

image

Det kommer att ge dig en ungefärlig lista över alla URL:er som Google har indexerat från din sajt.

Du kan också se om en specifik URL är indexerad genom att skriva in den efter site-operatorn:

site:dinwebbplats.se/specifik-url

image

2. URL Inspection Tool

I Google Search Console kan du knappa in den fullständiga URL:en du vill kontrollera i “URL Inspection Tool”, så berättar verktyget om sidan är indexerad, eller inte.

image

Sidan är indexerad

image

Sidan är inte indexerad

För sidor som inte är indexerade kan verktyget också ge dig information om varför. Det är värdefullt när du felsöker och åtgärdar problem med indexeringen:

image

Orsak till att sidan inte är indexerad

3. Pages-rapporten

I Google Search Console hittar du också funktionen “Pages” under “Indexing”. Här kan du se alla sidor som Google har hittat på din webbplats och om de är indexerade eller inte.

image

Åtgärda problem med indexering

Det är ett detektivarbete att reda ut varför sidor inte indexeras och lyckligtvis finns det bra verktyg för att hjälpa dig:

  1. Google Search Console (GSC) – Gratis för alla webbplatsägare
  2. Externa verktyg – Tredjepartsverktyg som crawlar din webbplats och identifierar problem. Det mest välkända (med god anledning) är Screaming Frog

Hitta indexeringsproblem med GSC

 “Indexing” i Google Search Console ger rapporter över vilka sidor på din webbplats som Google känner till och vilka som är indexerade, eller inte.

Under grafen i ”Pages” som vi nämnde ovan ser du hur många sidor som Google känner till och deras indexeringsstatus. Om du scrollar ner under denna hittar du en lista över vilka problem du har med indexering och vilka sidor som drabbas av vilket problem:

image

Inte alla orsaker är egentliga problem; redirectade (omdirigerade), canonicalised (kanonikaliserade) eller “noindex”-sidor kan vara medvetna och korrekta. 


Det är viktigt att gå in på olika “reasons” för att se så att det är i ordning och åtgärda de fel du hittar. Det kan vara allt från felaktiga redirects, 404-sidor som har inlänkar eller sidor som crawlats, men inte indexerats.

Andra analysverktyg

Efter att du åtgärdat alla fel du hittat i GSC är det en bra idé att köra sajten genom ett externt verktyg för att täppa till alla luckor. Det finns en hel del bra alternativ på marknaden. Bland annat Ahrefs och SEMRush är verktyg som gör tekniska-, men även sökord- och backlinks-analyser. 

Vi rekommenderar främst Screaming Frog, vilket är ett verktyg helt dedikerat till att hitta tekniska fel och möjligheter på din webbplats. Skriv in din hemsida i verktyget så får du en detaljerad lista över problem och hur du löser dem. Det är ovärderligt om du arbetar med teknisk SEO.

Screaming Frog (upptäckta problem markerade i rött)

Det är speciellt problemen som märkts ut med High eller Medium priority du bör rikta in dig på. Åtgärda dessa snarast.

Vanliga indexeringsproblem och hur du löser dem

Det finns många möjliga anledningar att Google inte väljer att indexera sidor på din webbplats. Vi kommer inte att kunna gå igenom alla, men några vanliga problem är:

  • 404-sidor
  • Felaktiga redirects
  • Felaktiga noindex-taggar
  • Blockerad av robots.txt
  • Duplicerat innehåll

404 – Not found

404 är en felkod som genereras när en länk går till en sida som inte existerar. Det är varken bra för användare, eller Google. Det kan lösas på olika sätt, beroende på sammanhang, bland annat:

  • Felskriven – Om URL:en i länken/länkarna till 404-sidan är felskriven, rätta till den på alla ställen.
  • Borttagen av misstag – Om sidan är borttagen av misstag, återupprätta den.
  • Flyttad – Om sidan har fått en ny adress, exempelvis om exempelsajt.se/topp-10-produkter/ är flyttad till exempelsajt.se/guider/topp-10-produkter/, sätt en redirect på den gamla sidan till den nya. Peka om länkar till den gamla sidan så de pekar mot den nya.
  • Permanent borttagen – Om sidan är permanent borttagen medvetet, fundera på om det kan vara relevant att redirecta sidan till en annan, relevant sida. Se då också till att peka om länkarna mot den nya sidan istället. Alternativt, ta bort alla länkar som pekar till den felaktiga sidan från webbplatsen och sitemap.


Bonus: 404-sidor kommer dina besökare att råka ut för, vare sig du vill det eller inte. Kanske de skriver in en felaktig adress när de ska besöka en av dina sidor. Då kan det vara bra att ha en så trevlig och användarvänlig upplevelse som möjligt.

image

Source: Exempel på en fyndig 404-sida från marvel.com

Du kan designa din egen 404-sida, där det kan vara en bra idé att inkludera länkar till populära kategorier och produkter, exempelvis.

Felaktiga redirects

Redirect är ett direktiv som omdirigerar en besökare eller bot från en sida till en annan. Det används ofta när innehåll flyttar från en URL till en ny. Problem med redirects kan uppstå av olika orsaker, som i slutändan leder till att Google inte indexerar den slutgiltiga mål-sidan:

  • För långa redirect-kedjor – En URL redirectas till en ny, som i sin tur redirectar vidare till en annan URL, som redirectar till en annan och så fortsätter det. Om kedjan blir för lång kommer Google till slut att ge upp att följa den. Lösningen är att helt enkelt minimera antalet redirects, helst ska alla länkar peka till sidor som INTE är redirectade.
  • Redirect-Loopar – En URL redirectas till en URL, eller kedja av redirects som i slutändan redirectas tillbaka till den ursprungliga URL-en. Det skapar en oändlig loop som slutar i ett felmeddelande för besökare eller boten. Lösningen är att redirecta samtliga URL-er till den önskade sidan och se till att alla länkar på sajten pekar mot densamma.
  • Redirect-kedja med en felaktig eller tom URL –  Om en redirectkedja innehåller en felaktig eller tom URL, vilket gör den oanvändbar. Korrigera den felaktiga URL-en, men se också till att peka alla redirects mot rätt URL och se till att alla länkar på sajten pekar mot den.

image

Source: Screaming Frog identifierar redirect-kedjor och -loopar

Felaktiga noindex-taggar

Noindex är ett direktiv för Google att inte indexera en sida. Ett vanligt misstag är att det lagts till noindex-taggar på sidor som egentligen ska indexeras. Ta helt enkelt bort noindex-taggen.

image

Så ser noindex-taggen ut i kod

Blockerad av robots.txt

Ibland råkar webbansvariga blocka kritiska sidor eller resurser i sin robots.txt-fil. Se över instruktionerna i filen så de inte blockerar Googlebot från de sidor som du vill ha indexerade.

Blockerad av robots.txt

Ibland råkar webbansvariga blocka kritiska sidor eller resurser i sin robots.txt-fil. Se över instruktionerna i filen så de inte blockerar Googlebot från de sidor som du vill ha indexerade.

Duplicerat innehåll

Med duplicerat innehåll menas att du på din sajt har sidor som är nästan- eller helt identiska med varandra. Eller ännu värre, om du har kopierat innehåll rakt av från en extern webbplats. 

Duplicerat innehåll kan bero på olika saker, men oavsett kan det få oönskade konsekvenser om det inte tas om hand korrekt: 

  • Google får svårt att avgöra vilket innehåll som ska indexeras. Det kan leda till att olika sidor byter av varandra i sökresultaten för samma sökning.
  • Google kan välja att ranka ned sidor eller till och med vägra att indexera sidor med duplicerat innehåll.

Det finns olika sätt att identifiera om du har duplicerat innehåll.

  • I GSC kan du se varningar när Google hittat duplicerat innehåll på din webbplats och hur de förhåller sig till dem. Du hittar dem under indexing – pages i rapporten “Why pages aren’t indexed”. Leta efter:
    • Duplicate without user-selected canonical 
    • Duplicate, Google chose different canonical than user 
    • Duplicate, submitted URL not selected as canonical
  • Det finns flera verktyg som kan identifiera duplicerat innehåll, bland annat Ahrefs, SEMRush och Screaming Frog.

image

Source: Identifiera duplicerat innehåll i Screaming Frog

Om du märker att du har duplicerat innehåll finns det olika sätt att åtgärda problemen: Redirect, Noindex eller Canonical. Vilken lösning som passar bäst beror på kontexten.

  • Redirects kan vara användbara om du märker att du av misstag skapat en dubblett av en sida och som inte tillför något värde där den finns. Sätt upp en redirect och rikta om alla länkar som pekar mot dubbletten till originalet.
  • Noindex kan vara en lösning för duplicerat innehåll som är användbart för besökare, exempelvis alla tag- och kategorisidor som genereras av ditt CMS (vanligt i WordPress). De har inget unikt innehåll, men används för navigation. 
  • Canonical är ett direktiv för Google som anger en annan URL som den huvudsakliga versionen av sidan. Det kan exempelvis användas för i närmast identiska produktsidor på en e-commerce-sajt.Exempel: Om du har en sida för en klänning och fyra länkade sidor för olika färgvarianter kan färg-sidorna med fördel ha canonical-taggar som pekar mot huvudsidan.

Best practice efter åtgärder

Efter att du genomfört en åtgärd på din webbplats är det bra om du verifierar att den fungerar som den ska. Screaming Frog passar utmärkt till detta. Om du redan gjort en crawl av din sajt i verktyget kan du jämföra den första crawlen med den nya.

Därefter går du in i Google Search Console, öppnar “Pages” och klickar på problemet du åtgärdar och sedan “Validate Fix”

image

Not: Det kan dröja ett tag innan Google verifierar om åtgärden gått igenom.

Du har nu, om du följt guiden, åstadkommit följande:

  1. En sajtstruktur som är platt och länkar till alla de sidor som du vill att Google och användare ska se.
  2. Laddat upp din sitemap via Google Search Console.
  3. Korrigerat fel som hindrar Google från att indexera dina sidor korrekt.

Grattis! Du har precis skapat en bra grund för Google att crawla och indexera dina sidor. Det är dags att vi tar en vidare titt på nästa tekniska aspekt, som Google värderar högt: hastigheten.

Hastighet och SEO

Hastighet, eller PageSpeed, är en direkt rankingfaktor som påverkar din webbplats placering i sökresultaten. Precis som med alla andra rankingfaktorer vet vi dock inte hur mycket inflytande det har.

Statistiken att ju långsammare en webbsida laddar, desto högre risk är det att en användare tappar tålamodet och “bouncear”. Det betyder att de lämnar sidan utan att ha interagerat med den (och i värsta fall går de till en konkurrent). Google noterar hur användare beter sig och om de ser ett mönster att besökare snabbt lämnar din webbsida riskerar den att tappa positioner i sökresultaten.

Fakta: Risken att få en bounce ökar med hela 32% om sidan går från en laddtid på 1 sekund till 3 sekunder.

Hur optimerar man sin PageSpeed?

Det första du bör göra är att testa din webbplats i Googles PageSpeed Insights, vilket är ett gratis verktyg från Google. Där kan du analysera en URL i taget och verktyget visar dig din nuvarande status och en mängd förbättringsområden inom både Hastighet, UX och SEO.

image

 

Det ger dig också tips på vad och hur du kan göra för att förbättra olika delar av webbsidan.

image

Det finns en mängd olika aspekter av en webbplats som påverkar laddtider och vi kan inte lista dem alla här. Vanliga metoder för att snabba upp din webbplats inkluderar bland annat:

Komprimera filer

Använd komprimeringsprogram/format som gzip för att komprimera CSS, HTML, och JavaScript-filer som är större än 150 bytes. Men använd inte detta för bilder.

Försök att minimera bilder (utan att kompromissa på kvaliteten) med hjälp av program som PhotoShop eller gratistjänster som TinyPNG.

image

TinyPNG

Olika bildformat är bra för olika typer av bilder:
JPG – Bäst för fotografier 

PNG – Bäst för grafik, designelement och logotyper

Reducera Redirects

Varje redirect saktar ner laddtiden för besökaren, så undvik så långt som möjligt onödiga redirects och speciellt långa redirect-kedjor (som vi pratat om ovan).

Använd ett CDN

CDN, eller Content Delivery Networks, är en grupp servrar distribuerade över ett större geografiskt område. De lagrar en cachead version av din webbplats för att ge en snabbare och mer pålitlig tillgång till sajten för folk närmare CDN-servern.

Minifiera CSS, JavaScript, och HTML

Optimera koden, exempelvis genom att ta bort onödiga:

  • Mellanslag
  • Kommatecken och andra överflödiga tecken
  • Kommentarer
  • Oanvänd kod

Reducera HTTP requests

Ju fler filer en browser behöver begära från servern som hostar din webbplats, desto långsammare blir laddningstiden. Det kan handla om att du har många bilder, inbäddade videos, onödiga plugins med mera. Gå igenom dina sidor och se över om alla resurser verkligen bidrar till upplevelsen och om du har plugins installerade som är överflödiga.

Du kan också använda dig av lazy loading, vilket innebär att innehåll inte laddas förrän användaren scrollat till området på sidan där innehållet finns.

Externa verktyg

Förutom PageSpeed insights finns det flera verktyg som analyserar webbplatshastigheter på ett djupare plan, bland annat GTMetrix och WebPageTest

Mobilvänlighet

Hösten 2016 påbörjade Google initiativet Mobile First Indexing, vilket innebär att de använder mobilversionen av en sajt för att crawla och indexera den. Sju år senare, 2023, blev de färdiga med implementeringen och numera används aldrig desktop-versionen av Googlebot.

image

Källa: Google

Varför?

För att majoriteten av jordens befolkning använder mobilen när de konsumerar information på internet.

Vad innebär det?

I praktiken innebär det att det inte spelar någon roll om din webbplats ser fantastisk ut på en dator, men inte fungerar på mobilen. Googlebot bryr sig bara om mobilversionen.

Dessutom kommer du att tappa möjligheten att tillfredsställa och konvertera användare som besöker dig från sina mobiltelefoner. 

Hur optimerar du för mobile first?

Du behöver framför allt se till att innehållet på mobil och desktop är detsamma. Den vanligaste lösningen för detta är att implementera responsiv design på webbplatsen, vilket majoriteten av webbplatserna har idag.

Vad många dock missar är att använda mobil-versionen som utgångspunkt när de utvecklar webbplatser och nya sidor. Med största sannolikhet är det mobilversionen av din sida som majoriteten av användarna kommer att interagera med. 

Även om sidor designas på desktop måste man hela tiden se till att först och främst utvärdera hur resultatet kommer att se ut i mobilen. Det finns olika verktyg du kan använda dig av för att se hur en webbplats ser ut i olika enhetstyper, exempelvis browserstack.

Ett gratis och enkelt sätt att få en snabb blick över hur din webbplats ser ut i mobil är att använda sig av Google Chromes “Inspektera”-funktion (högerklicka någonstans på webbplatsen):

image

Därefter växlar du till mobilvy här:

image

Sedan kan du se hur webbsidan ser ut i mobil och du kan byta simulerad mobil-modell här:

image

För mobilanvändare är en snabb webbplats extra viktig eftersom de ofta är beroende av sin mobiluppkoppling när de surfar. Det kan vara särskilt viktigt om din målgrupp befinner sig i områden med dålig uppkoppling/täckning.


Använd Googles PageSpeed Insights eller Google Lighthouse för att se hur snabbt din webbplats laddar i mobil och rekommenderade åtgärder för att förbättra hastigheten:

image

Google PageSpeed Insights

Som vi nämnde ovan kan du också använda dig av andra externa verktyg som GTMetrix.

Strukturerad data

Avslutningsvis kommer vi att prata om strukturerad data, eller structured data som det heter på engelska. Strukturerad data är ett dataset som organiseras och struktureras på ett specifikt sätt på en webbsida.

I en SEO-kontext är det data som presenteras i ett standardiserat format för att leverera information om innehållet på en webbsida till sökmotorer. Det kan vara allt ifrån ingredienser och tillagningstid för recept, öppettider för butiker, pris och betyg för produkter, med mera.

Varför är det viktigt?

Strukturerad data hjälper sökmotorer att förstå innehållet på webbsidor så att de i slutändan kan skapa rikare och mer personliga sökresultat, så kallade “Rich Results”. Det är hjälpsamt för användare och ger webbplatser som implementerat strukturerad data ökad chans att få besökare. Se exempel nedan på sökresultat som berikats med hjälp av strukturerad data:

image

Rich Results för sökningen “iphone 15 pris”

Hur implementerar man strukturerad data?

För att kommunicera strukturerad data till en browser behövs ett vokabulär (ord som ger mening till mottagaren) och ett format (regler för hur orden används för att förmedla budskapet).

Det vanligaste vokabuläret, universellt för de största sökmotorerna, är schema.org. Du kan hitta mer information om det på webbplatsen: https://schema.org/

Den vanligaste syntaxen, som Google också rekommenderar, är JSON-LD.

Strukturerad data implementeras direkt i koden på webbsidan och det finns en mängd olika typer av Rich Results du kan optimera för. Här kan du se Googles egna dokumentation kring de olika varianterna.

Efter implementation bör du testa din sida i Rich Results Test för att se att det fungerar som det ska.

image

Avslutande ord

När du jobbar med teknisk SEO är det viktigt att förstå att arbetet aldrig riktigt tar slut. Det digitala landskapet utvecklas ständigt. Google lanserar kontinuerligt nya funktioner och best practices som det är viktigt att hålla sig uppdaterad kring.

En bra idé är att följa Googles egna blog kring hur sökmotorn utvecklas eller, våra personliga favoriter Search Engine Journal och Searchengineland

Och såklart bör du signa upp för vårt nyhetsbrev så levererar vi dig de senaste nyheterna, på svenska.

Om du känner att du vill ha hjälp med din tekniska SEO är det bara att du kontaktar oss så får du en kostnadsfri, grundläggande analys.

FAQ

Hur viktigt är Teknisk SEO?

Det är fundamentalt. Utan en solid teknisk grund kommer Google inte att kunna hitta, läsa av och förstå ditt innehåll.

Är det svårt att göra teknisk SEO?

Det beror på vilken del av det. Vissa saker kan du sköta via Google Search Console eller CMS, men vissa aspekter kan det krävas att du har kunskap om programmering, eller tillgång till en utvecklare.

Hur ser man resultatet av teknisk SEO?

Det går att se i Google Search Console eller externa verktyg som Screaming Frog om åtgärderna är korrekt implementerade. Sedan beror resultatet på vilken aktivitet som genomförts. Om det är att åtgärda problem med indexering kan du se hur fler av dina sidor läggs till i Googles index. Om det gäller strukturerad data är det tydligaste beviset att dina listningar i sökresultaten får så kallade RIch Results, dvs betyg, pris och annat visas ut direkt i sökresultaten.
Free SEO analysis

Kostnadsfri SEO-analys

Free SEO analysis
Aktivera JavaScript i din webbläsare för att slutföra detta formulär.
Vilken typ av analys vill du ha?
*Genom att samtycka blir du också anmäld till vårt nyhetsbrev och du accepterar att ta emot marknadsföring. Du kan avsluta din prenumeration när du vill genom att klicka på ”unsubscribe” i våra nyhetsbrev.
Klicka här för att godkänna vår integritetspolicy:
Innehåll