Problemet med duplikat innhold og hvordan du løser det

Et problem som vi ser på nesten alle nettsteder er duplikat innhold. Større nettsteder med hundrevis av sider er spesielt utsatt for dette. Men hva kvalifiserer akkurat som duplikat innhold? Hvorfor fører duplikat innhold til problemer, og hvordan kan vi unngå dem? Vi vil dekke alt det og mer i denne artikkelen.


Hva er duplikat innhold?

Dupliser innhold er akkurat det du synes det er: to eller flere innholdsdeler som er identiske, den eneste forskjellen er nettadressen.

Google ser hver nettadresse som en egen side. På grunn av dette vil det vurderes at følgende nettadresser er helt forskjellige sider:

  • Original side med røde skjorter: http://website.com/shirts/red
  • Samme side, men bestilt etter pris: http://website.com/shirts/red?order=asc

Problemet her er at vi i utgangspunktet ser på samme side med det samme innholdet. Den eneste forskjellen er at innholdet på den siste nettadressen er i en annen rekkefølge. Google ser dette som duplikat innhold.


Hvorfor er duplikat innhold dårlig?

Kopier innhold forvirrer søkemotorer. Hvorfor? Fordi de har det vanskelig å bestemme hvilken side som er mest relevant for et søk.

Søkemotorer vil aldri vise to identiske deler av innholdet i SERPene. Dette er gjort for å sikre høyeste søkekvalitet; Å se det samme innholdet to ganger er ikke veldig interessant for brukeren.

Et annet problem er rangeringskraft av dupliserte sider. I stedet for å ha en enkelt side med stor autoritet, har du flere sider med fortynnet, suboptimal ytelse. Dette kan koste deg mye organisk trafikk.


Hvordan duplikat innhold er opprettet

Dupliserende innhold kan opprettes med vilje eller ved et uhell. Likevel er resultatet det samme.

Et eksempel på bevisst duplikat innhold er utskriftsversjonen av en side. Det er faktisk den samme siden med det samme innholdet, så når denne utskriftsversjonen blir indeksert, er det et problem med duplikat innhold.

Det er imidlertid mange situasjoner der duplikat innhold er opprettet utilsiktet. Det kan være flere årsaker, for eksempel:

  • Session IDs
  • Sorteringsalternativer
  • Affiliate koder
  • domener
  • ...

Session IDs

En økt-ID er en variabel, en streng av tilfeldig genererte tall og / eller bokstaver og brukes til å holde oversikt over besøkende. De brukes ofte til handlekurver, for eksempel:

http://website.com/?sessionid=5649612

Problemet med økt-ID er åpenbart: de kan lage hundrevis, kanskje til og med tusenvis av duplikater. Lagring av økt-IDer i informasjonskapsler kan løse dette problemet, men hvis du stoler på dette alternativet, ikke glem EU-informasjonskapsloven.

Sorteringsalternativer

Når folk tenker på sorteringsalternativer, tenker de vanligvis på nettbutikk produktkataloger der brukerne kan sortere etter pris, dato, etc. Men sorteringsfunksjoner finnes ofte også på andre nettsteder. Følgende nettadresse bruker en typisk blogg sorteringsfunksjon:

http://website.com/category?sort=asc

Nettadressen med sorteringsalternativet og originalen er stort sett den samme siden. Det er det samme innholdet, bare sortert på en annen måte.

Affiliate Codes

Affiliate koder popper opp over hele nettet. De er vant til å identifisere henviseren, som i sin tur belønnes for å bringe inn en ny besøkende. En tilknyttet kode kan se slik ut, for eksempel:

http://website.com/product?ref=name

Igjen kan denne koden opprette en duplikat av den opprinnelige siden.

domener

Selv noe som er så enkelt som et domenenavn, kan noen ganger være problematisk. Ta en titt på følgende nettadresser:

http://website.com
http://www.website.com

Søkemotorer har kommet langt, men noen ganger får de fortsatt denne feilen. Begge nettadressene sannsynligvis peker til hjemmesiden, men fordi begge nettadressene ser annerledes ut, ses de noen ganger som forskjellige sider.


Slik identifiserer du duplikat innhold

Vi har snakket om hvordan duplikat innhold er opprettet, men hvordan kan du identifisere dupliserte innholdsproblemer på nettstedet ditt?

Den enkleste måten å gjøre dette på er via Googles verktøy for nettredaktører. Logg deg på kontoen din og gå til optimalisering> HTML forbedringer. Her finner du en liste over dupliserte titler (som trolig er duplikat innhold).


Googles verktøy for nettredaktører

Alternativt kan du legge inn nettsted: -søk kommandoen i adresselinjen for å finne sider fra et bestemt domene (for eksempel nettsted: webdesign.tutsplus.com). Denne metoden er veldig nyttig hvis du mistenker at en bestemt side har flere duplikater. Bruk kommandoen på siden og lim inn et par setninger fra den mistenkelige siden. Hvis du får en melding fra Google som sier "For å vise deg de mest relevante resultatene, har vi utelatt noen oppføringer ...", har du sannsynligvis duplikat innhold.

Til slutt kan du også bruke nettstedet crawlere. Programvare som Xenu og Screaming Frog kan brukes til å samle nødvendig informasjon. Analyser sidetitlene i gjennomsøkingsrapporten og sjekk for duplikater.


Løse dupliserte innholdsproblemer

Som det sier: "hver sykdom har en kur". Heldigvis finnes det flere måter å kurere dupliserte innholdsproblemer:

301 Omdirigering

En enkel måte å hindre duplikat innhold fra å bli indeksert er en 301 omdirigering. På denne måten blir brukeren og søkemotoren omdirigert fra duplikatet til originalen. Som et resultat blir all koblingsjuice sendt til den opprinnelige siden.

En 301-omdirigering er implementert på Apache-servere ved å legge til regler på serverens .htaccess-fil. Husk at denne metoden "sletter" kopien. Hvis du ikke vil bli kvitt den eller de dupliserte sidene, bør du bruke følgende metode.

Rel = kanoniske

Det er en annen måte å fortelle søkemotorer om duplikat innhold; de rel =”canonical” stikkord. Dette stykke kode skal implementeres i av en nettside.

La oss si at vi har side B som er et duplikat av side A. Hvis vi vil informere søkemotorer av dette, vil vi sette følgende kode i oppslaget til Side B:

Denne koden angir at den nåværende siden faktisk er en kopi av den ovennevnte nettadressen. Etter å ha implementert det, vil de fleste koblingsjuice bli overført til den opprinnelige siden og dermed forbedre rangeringskraften til den siden. I motsetning til 301-omdirigering vil de dupliserte sidene fortsatt være tilgjengelige.

Meta Robots Tag

Vi har allerede diskutert roboten metakoden i detalj under en tidligere opplæring. Ved å legge til en meta roboter tag med "noindex" parameteren, kan du forhindre at duplikat siden blir indeksert.

URL-omskrivning

Dette er en mer avansert løsning. Det er vanskeligere å implementere hvis du har en begrenset forståelse av kode, men det kan være nyttig ved flere anledninger.

Som nevnt før, ble domenenavn kan ofte forårsake dupliserte innholdsspørsmål (www vs ikke-www-versjon). Du kan løse dette problemet ved å legge til en URL-omskrivningsregel til din htaccess-fil (noe annet som vi tidligere har dekket på Webdesigntuts +). Velg ditt foretrukne domene (www eller ikke-www) og skriv om nettadresser automatisk til det angitte domenet.

Et annet problem vi har snakket om er bruk av Session IDs. Den samme nettadressen med et annet sesjons-ID vedlagt kan ses som duplikat innhold. Igjen kan htaccess-filen brukes til å deaktivere disse parameterne. Les Disable session ID sendes via URL av Constantin Bejenaru for å lære hvordan du gjør dette.

Googles verktøy for nettredaktører

I forrige avsnitt snakket vi om automatisk nettadressedskrivning for domenenavn. En enklere måte å gjøre dette på, er via Googles verktøy for nettredaktører. Bare logg deg på kontoen din, gå til Konfigurasjon, klikk på Innstillinger og sett inn en foretrukket domene.


Googles nettredaktørens foretrukne domene

Hvis du bruker dynamiske nettadresseparametere, Du kan fortelle Google hvordan du håndterer dem. På denne måten kan du se hvilke parametere som bør ignoreres. Dette kan ofte løse mange dupliserte innholdsproblemer. Gå til Googles verktøy for nettredaktører, og gå til Konfigurasjon> Nettadresseparametere. Du finner mer informasjon på Google Support, men vær sikker på at du bare bruker denne funksjonen hvis du vet hvordan parametere fungerer, ellers kan du blokkere sider ved et uhell..


Språkmålretting

Dette problemet er relatert til duplikat innhold, men det er noen forskjeller.

La oss si at et selskap som selger produkter i Nord-Amerika har to nettsteder: company.us og company.ca. Den første er rettet mot USA, sistnevnte i Canada. På begge nettsteder finner vi innhold som ligner på at webmastere ikke ville skrive om flere sider med tekst.

Det er mulig at den amerikanske versjonen vil overgå den kanadiske versjonen (selv på Google.ca) fordi den har mer autoritet. Hvordan kan vi fikse dette målrettingsproblemet?

Det er en enkel løsning: rel = "alternate" hreflang = "x" merknad.

Hvis vi bruker vårt tidligere eksempel, må vi legge til følgende kode i del av .us-domenet:

På .ca-domenet må vi plassere denne koden:

I hovedsak sier du Google at det er en alternativ versjon (eller duplikat) på et annet språk. Hreflang-attributtet bruker ISO 639-1 for å identifisere språket. Eventuelt kan du legge til regionen i ISO 3166-1-format.


Avsluttende merknader

Forebygging er bedre enn kur ... Konsistent intern kobling kan forhindre opprettelse av duplikat innhold. Hvis du har http://www.website.com som et foretrukket domene, må du ikke peke på dine interne linker til ikke-www-versjonen. Det samme tipset gjelder innkommende koblinger. Hvis du kobler til ditt eget nettsted fra et annet domene, bruker du en konsistent lenkestruktur.

Ikke bevisst opprett duplikatinnhold ved å kopiere store biter av tekst fra andre nettsteder. Google vil trolig finne ut om det og konsekvensene kan ikke være så hyggelige:

I de sjeldne tilfeller der Google oppfatter at duplikat innhold kan vises med hensikt å manipulere våre rangeringer og bedra våre brukere ... kan rangeringen av nettstedet måtte lide, eller nettstedet kan bli fjernet helt fra Google-indeksen.


Konklusjon

Dupliserende innhold er noe du ser på nesten alle sider. Det kan ha flere årsaker, uavhengig eller på annen måte.

Med mindre du vil hindre tilgang fra siden via en 301-omdirigering, er det best å bruke rel = kanonisk merknad. Alternativt kan du bruke meta roboter-taggen eller automatisk URL-omskrivning. Googles verktøy for nettredaktører tilbyr også noen måter å hindre duplikat innhold på.

Til slutt er det best å være konsekvent i din sammenkobling. Interne koblinger og innkommende koblinger skal vises det samme.