Hvordan Block Søkemotorer i Drupal

Drupal bruker en søkemotor blokkering metode som er felles for alle webservere for å hindre søkemotorer fra å innlemme nettsidene den tjener inn en søkedatabase. Dette er ofte brukt for nettsteder som ikke har offentlig tilgjengelige data, eller for å hindre søkemotorer fra å be om overdreven trafikk fra en nettside.

Bruksanvisning

1 Finn "robots.txt" filen i rotmappen på ditt Drupal nettsted. Rotmappen er også plasseringen av hjemmesiden din, men beliggenheten på webserveren vil variere avhengig av hvilket operativsystem du bruker til å kjøre Drupal.

2 Opprett en tom fil som heter "robots.txt" i root-mappen hvis den ikke allerede finnes. Drupal versjon 5 og senere vil skape en robots.txt-fil som standard, men du kan også legge til denne filen hvis den ikke allerede er der.

3 Åpne robots.txt-filen i en teksteditor.

4 Erstatte innholdet i robots.txt-filen med følgende:

Bruker agent: *

Disallow: /

Dette forteller alle Web søkemotorer for å hoppe over alt innhold. Bruker agent betyr søkemotor; "*" som er et wildcard, som betyr alle. Den "/" betyr roten, eller "topp" på ditt nettsted. Derfor, ved å ikke tillate roten, alt innhold på alle sidene på nettstedet - som er hierarkisk "lavere" enn roten - hoppes over.

5 Lagre robots.txt-filen. Hvis webserveren bruker en webside cache, tilbakestille det slik at den nye siden er sendt til søkemotorer når de ber om robots.txt siden.

Hint

  • Du kan også selektivt forby noen søkemotorer (som lar Google, men blokkering Bing), eller har søkemotorene indeksere noen sider, men ikke andre. Se robots.txt dokumentasjon for detaljer.