Hva er Google metning?

Hva er Google metning?


Begrepet "Google Saturation" er brukt for å beskrive hvor mange individuelle sider på et nettsted er til stede i Google-indeksen. Jo flere sider Google indekserer innenfor et område øker det totale antallet sider fra nettstedet som kan vises i Googles søkeresultater: en side som ikke er i Googles indeks vil ikke vises i søkeresultatene. Et nettsted Google metning kan forbedres ved å gjennomføre Search Engine Optimization, eller SEO, beste praksis.

Søkemotor metning

Begrepet "Search Engine Saturation" gjelder indeksfilene holdt av alle søkemotorer på Internett. Google Saturation er en Google-spesifikk faktor. En søkemotor kan ikke bringe tilbake et nettsted eller webside som et resultat med mindre søkemotoren er klar over det eksisterer. For å bygge en indeks som skal brukes for søkeresultater, søkemotorer bruker programmer som kalles Web crawlere som undersøker, sortere og indeksere nettstedet sider. Metningsnivået refererer til hvor mange av disse sidene er i Google-indeksen. Google kan avvise sider som ikke er optimalt konfigurert eller har store mengder repeterende innhold. Web programmerere og SEO spesialister kan bruke en lav sats av metning å identifisere og korrigere koding problemer med en nettside som hindrer den fra å bli indeksert i Google.

Crawler naturlige koblinger

Selv om et område ikke er formelt sendt til Googles indeks eller utformet med SEO i tankene, vil Googles Web belte programmer naturligvis finne sted fra oppføringer på nettstedet notering servere - også kjent som Domain Name System - og gjennomsøke området. Googles web crawler vil naturlig bygge en indeks ved å følge interne koblinger som ligger på et område. Robotsøke vil bruke header og katalog lenker til å bygge en indeks av webområdedeler og finne individuelle artikler, sider og innlegg fra nettstedet rubrikksider.

Bygg og send inn et nettkart

Googles belte programmene er effektive, men de er ikke perfekt, og de vil ikke være i stand til å finne sider med mindre det er en link som fører til siden. I tillegg kan crawler ha problemer med å følge bestemte koblinger. Google tilbyr tjenester som kan hjelpe lede søkemotor-gjennomgangen til alle en stedets sider i Verktøy for nettredaktører. Du kan bygge et områdekart som viser alle sidene på et nettsted og sende det til Google gjennom verktøy for nettredaktører. Sitemap vil sikre at Googles søkeroboter vil skanne alle sidene på nettstedet. Men selv om siden er i sitemap, kan det ikke bli indeksert. Sitemaps er nettstedet kataloger bygget med XML programmeringsspråk.

IKKE blokker Robots

Som en tjeneste, vil Googles robotsøkeprogrammer lese en tekstfil kalt "robots.txt" plassert i domeneroten for å sjekke hvor det kan og ikke kan indeksere seksjoner innenfor et område. Google vil indeksere nettstedet katalog som standard, men du kan bruke Robots.txt fil for å fortelle Google å ignorere ting som interne sider, testsider og søkeresultatsider. Imidlertid kan Robots.txt-filen være farlig for Googles evne til å indeksere et nettsted. Hvis filen forteller Google at det ikke er lov til å indeksere nettstedet i det hele tatt, vil området ha noen metning, og vil ikke vises i resultatene.