Der er penge at tjene på nettet, både ved at have reklamer på sine hjemmesider, men også som ”ekspert” i alle mulige ydelser. Det har fået mange til at være kreative, og lavet noget forfærdeligt hø, for enten at lokke folk til deres hjemmeside og se deres reklamer, eller for at optimere websites til at give Google juice videre til andre websites, kunder eller egne.
I kampen om at få kundernes eller egne hjemmesider på første side i en Google søgning, er der nogen der bruger alle kneb. Og her er det at Google har sat en Panda til at rydde op, med skarpe klør og uden nåde.
Pandaen skal se med brugerens øjne
Google prøver at lave en søgemaskine, der viser de resultater vi gerne vil have. Det har været formålet fra starten af, og det er en af grundende til den er blevet så populær. Men sæt nu en dag Google søgninger viste alt muligt junk, som brugeren ikke gider se, og som kun er lavet for at tjene penge, eller give andre sider højere rangering i søgemaskinen? Hvad gør brugeren?
I første omgang går du tilbage til Google, og prøver at lave en mere specifik søgning, det der kaldes en long tail search. Du har større chance for at ramme rigtigt, men på den anden side, er dem der laver søgemaskineoptimering, og dem der laver hjemmesider kun for at tjene penge, også med på det trick. Så ser du igen noget skrammel.
Til sidst giver du op, og prøver en anden søgemaskine, hvis du kan finde en anden altså 😉
Derfor vil Google gøre alt for at de resultater du ser, er dem du vil ha’. Panda skal se med brugerens øjne.
På samme måde er det med de reklamer Google viser i sine søgninger. De skal være optimeret, så de passer til det der søges efter. Det er en hel videnskab for sig selv 🙂
Google er kongen i dag
Google har kun haft ti år ved magten, og ved godt at det kan vende hurtigt igen. Bing fra Microsoft er meget opmærksomme på, at de måske kan få større markedsandele, hvis det ikke lykkes for Google at stoppe alle de der sider med dårligt indhold. Men dårligt for hvem?
Den normale måde at få indhold i Google søgninger er, at Google selv finder det via links fra andre sider, eller pinge Google når man har lavet noget der skal indekseres, hvilket WordPress f.eks. kan gøre helt automatisk.
Almindeligt indhold bliver indekseret efter en meget kompliceret formel, og nyt indhold får lov til at rangere lidt højere fra starten af, og ryger derefter stille og roligt ned, hvis der ikke er nogen der kigger på det, eller laver links til det, nævner det i Twitter, på Facebook og andre sociale medier.
Et af de store problemer er, hvem der skal vurdere om en side er dårlig. Hidtil har det været programmørerne der bestemte, og så på siderne med deres nørdede briller, der sikkert har kunnet give en god ide om hvad der er godt, og hvad der er skidt, men hvad med de små nuancer. Der er farligt at lave generelle regler, der skal bedømme hjemmesider, nogen kunne blive sure over at Google leger politi, og skal bestemme hvad der er godt, og hvad der er skidt. Derfor har Google oprettet et Team af brugere, der i bedste demokratiske stil, vurderer indholdet.
Google Search Quality Team
Google har et helt team af ansatte, Google Search Quality Team, der hele tiden undersøger hvad der kan gøres for at undgå for meget webspam. De laver en masse forsøg, og har mange redskaber til at vurdere hjemmesider.
Bl.a. har Google brugt flere tusinde mennesker til at surfe millioner af sider, og give dem karakterer, kategorisere i grupper, lave anmeldelser, og alt sådan noget der kan analyseres og vurderes.
Ud fra analyserne har Google fundet nogle kendetegn ved forskellige typer hjemmesider, dvs. nogle sammenfaldende tendenser (fingeraftryk), der giver en ide om hvad brugerne vil have, og hvad de ikke vil have.
De tendenser der er fundet, er blevet indskrevet i en formel, som Google kan afvikle ved lejlighed, når der skal ryddes op. Denne kørsel går under navnet Google Panda Update. Nogle af de fundne tendenser, er muligvis lagt direkte ind i den grundlæggende algoritme, der anvendes allerede når en ny side lægges i Google index, det ved kun Google selv!
Hvad er det Google vil af med?
Det som brugerne har stemt ude, og givet dårlige karakterer, består mest af dårligt indhold. Noget af det kan grupperes nogenlunde sådan:
- Duplikerede sider: indhold der gentages flere steder
a) hvis der er sider på webstedet der allerede findes på andre websteder, vil en af siderne få credit for indholdet, og de andre vil ligge langt nede på listen. Hvis dit websted udelukkende eller overvejende består af sider der også findes andre steder, kan du risikere at webstedet bliver pillet ud af Google index, i særligt slemme tilfælde.
b) hvis du ikke har styr på linkstrukturen, og et indlæg både findes under en unik URL, i en kategori, på flere tags osv. har du duplicate content. Dette kan dog løses nemt med en canonical meta. Når du i første gang retter dit websted, vil det føles som om du straffes, men hvor du før havde meget indhold, der fik mange visninger, har du bagefter det antal sider du reelt har, og resten er væk, hvilket vil give mindre potentiale for visninger. Det er ikke en straf som sådan, men mere en udjævning af trafikken til det passende niveau for det antal sider du reelt har. Hvis du ikke laver rettelsen selv, vil Google sørge for det, og så kan det være at webstedet nærmest forsvinder, fordi der er meget duplikeret indhold pga. dårlig linkstruktur. - Sider med mange udgående links: linkkataloger og artikeldatabaser er kendetegnet ved, at der er mange udgående links på alle sider. Ofte har der samtidig været meget tekst på siderne som også har været på mange andre sider, af ren dovenskab fra linkbuildernes side. Men har du artikler der er unikke i artikeldatabaser, er de guld værd. Både for dig, men også for artikeldatabasen. Det er dem der sørger for, at artikeldatabasen kun falder fra pagerank 7 til 3, i stedet for at falde til pagerank nul!
- Søgninger i søgninger: Google vil ikke vise et resultat, der viser en søgning på en hjemmeside. Det skal være en reel side. Mange ”søgemaskiner” og registre har forsøgt sig med at lave lister med søgninger, der viser indhold fra en database dynamisk, og det kan stadig ses. Men Google er blevet bedre til at opdage det. Det samme sker i øjeblikket med prissammenligningssider, hvor der genereres indhold på baggrund af det søgeord du kommer ind på siden med. Der er lavet en liste med produkter, der har links til databasen, hvor der genereres en søgning når brugeren (eller Google) kommer ind på siden. Samtidig er produktbeskrivelserne ofte identiske, så der også er duplicate content. Dobbelt straf!
Den eneste situation, hvor det er i orden at lave en søgning, er på sit eget website, med sine egne tekster eller produkter. Ellers ville grundlaget for blogs og ehandel forsvinde. De er stort set altid genereret dynamisk, og er en søgning. Men da det er dine egne tekster og produkter, findes indholdet jo ikke andre steder, vel? Der er en tendens til at Google i højere grad går efter et produkt som landingpage, end efter oversigten over produkter. Det giver god mening, Google vil vises resultatet som brugeren er tilfreds med. - Sider med meningsløst indhold: nogle prøver at lave sider med indhold der er noget sludder, men som har søgeordssætninger der er populære. Der kan være to formål med det, enten fordi der er reklamer på siden som brugeren klikker på, når de ikke finder det indhold de vil have, eller til at have links til andre sider, for at linkbuilde. Google er blevet rigtig gode til at spotte dem, og Google Spam Team kan (selvom de ikke vil indrømme det) fjerne sites fra Google Indeks, hvis de anmeldes eller opdages.
- Sider med overdrevent mange reklamer: Reklamer er generende, og de fleste brugere ser dem slet ikke. Derfor er der nogen der laver umanerligt mange reklamer på deres sider. Google AdSense tillader højst tre AdSense reklamer på en side, men derfor kan der sagtens være mange affiliate reklamer. Hvis det overdrives, og Google opdager det, bliver siden eller sitet derangeret, eller forsvinder, selvom indholdet er reelt og unikt.
- Sider der viser forskelligt indhold til brugeren og søgemaskiner: du må ikke snyde, og vise forskelligt indhold. Undtagelsen er sprogversioner, hvor du kan dirigere brugeren hen til den rigtige version af dit websted. Det må du godt, for det gør Google selv. Mobilsider er et andet eksempel, hvor det også er tilladt. Men indholdet må ikke variere. Her tænkes ikke på de forskellige elementer på siden, men helt enkelt indholdet af siden, selve teksten.
Det er heller ikke tilladt at lave snydetricks, så Google ser en masse tekst overoptimeret med masser af keywords og søgeordssætninger , mens brugeren ser en begrænset mængde tekst. En undtagelse er de websteder der benytter faner, hvor noget indhold er ”foldet” væk fra hovedsiden. - På engelsk; grammatik og stavning samt negative anmeldelser: Google har forsket meget i at kunne finde ud af det grammatiske, stavning og især hvis nogle indlæg er negative over for et produkt.
Hidtil har det været sådan, at al omtale er god omtale, så der har været eksempler på webshops der er blevet klaget meget over, som er kommet først i Google søgninger, simpelt hen fordi der har været meget kritik. Det er hidtil blevet klaret manuelt, men nu skulle Google have implementeret, eller være tæt på at få implementeret, en vurdering af de negative indlæg, så de trækker ned i stedet for.
Nu må du ikke lave spydige kommentarer mere, for det forstår Google ikke. Dog er der ingen der tror på det kommer til Danmark, vi er for små, så fortsæt med at være dansk – det er på engelsk du ikke må være spydig eller ironisk.
Og så kom Panda forbi
Når Google trykker på Panda-knappen, går bjørnen i gang med at undersøge hjemmesiderne efter kendetegn for det som QST har fundet. Den slår kløerne i, og flænser webstedet, hvis det findes for snavset.
Der er tegn på, at mange af de nævnte punkter bliver undersøgt, og de sider der rammer de forkerte markører, falder i rangering. De kan falde adskillige pladser på søgeord, så placeringen bliver nærmest usynlig. Og hvis det er rigtig slemt, bliver siden helt fjernet.
Bjørnekloen rammer hårdt og ubarmhjertigt, men der er også set eksempler på, at straffede steder er røget op igen, efter en genkørsel, hvor Pandaen måske har været for hård. Pandaen er på forsørgsstadiet, men virker.
Er du bange for Pandaen?
Det behøver du ikke være, hvis du har et websted med en god linkstruktur, og indhold du selv har lavet. Så længe dit site ikke er amerikaniseret, med reklamer over alt, vil du sikkert kun få positive oplevelser, når Google lader Panda-algoritmen gå amok.
…
Hav en fortsat fantastisk god dag
Michael Bredahl
Anders skriver
Super godt indlæg.
Har lige et spørgsmål, vil det sige man ikke må lave forskellige landings sider til fx ens produkter som man nu både bruger til optimering i adwords og organisk.
Michael Bredahl skriver
I princippet ikke. Men du kan gøre det, og sørge for at bruge rel=canonical tagget på kopisiderne (helst hele webstedet) til at fortælle hvilken side der er den “rigtige” 🙂