Slik blokkerer Google Cache

Google gjennomsøker millioner av websider hver dag og legger noe av dette innholdet til sin søkemotor indeks. Denne gjennomgangen er automatisert og utføres av et avansert dataprogram kalt en "bot". Googles bot butikker tekst, bilder og multimediefiler funnet under sin crawl i en cache. Cachen er et øyeblikksbilde av en nettside som den så ut da Google sist gjennomgått den. For å stoppe Google fra å lagre dine websider i sin cache, må du instruere bot for ikke å indeksere og bufre sidene. Den mest effektive metoden for å gjøre dette på er å lage en "Robots" tekstfil som inneholder instruksjonene og laste opp denne til ditt nettsted.

Bruksanvisning

1 Start Notepad eller en annen tekst-redigering program på datamaskinen din.

2 Skriv "User-Agent: Googlebot" som den første linjen i tekstdokumentet.

3 Type "Disallow: All" som den andre linjen. Dette hindrer Google fra å indeksere og caching noen del av ditt nettsted. Hvis du ønsker å stoppe det fra caching en bestemt side, så i stedet skrive "Disallow: /page.html" erstatte "side" med det spesifikke navnet på nettstedets side.

4 Klikk "Lagre som" fra "Fil" -menyen.

5 Lagre filen som "Robots.txt." Det må lagres med dette navnet for Googles roboter å gjenkjenne og lese filen.

6 Last opp filen til webserveren med File Transfer Protocol verktøyet eller via nett vertens content management system. Finn filen i samme katalog som startside eller indeksen siden av nettstedet.

Hint

  • Utgivere med en gratis Google Webmaster Tools konto kan opprette en tekstfil med "Generer Robots.txt" wizard Robots. Tilgang dette ved å klikke på "Site Configuration" og deretter "Crawler Access" fra Verktøy for nettredaktører hjemmeside.
  • Det kan ta flere uker etter å ha lastet en Roboter tekstfil for Google til å fjerne websider fra indeksen og cache.