Hvordan Block Søkemotorer i Drupal
Drupal bruker en søkemotor blokkering metode som er felles for alle webservere for å hindre søkemotorer fra å innlemme nettsidene den tjener inn en søkedatabase. Dette er ofte brukt for nettsteder som ikke har offentlig tilgjengelige data, eller for å hindre søkemotorer fra å be om overdreven trafikk fra en nettside.
Bruksanvisning
1 Finn "robots.txt" filen i rotmappen på ditt Drupal nettsted. Rotmappen er også plasseringen av hjemmesiden din, men beliggenheten på webserveren vil variere avhengig av hvilket operativsystem du bruker til å kjøre Drupal.
2 Opprett en tom fil som heter "robots.txt" i root-mappen hvis den ikke allerede finnes. Drupal versjon 5 og senere vil skape en robots.txt-fil som standard, men du kan også legge til denne filen hvis den ikke allerede er der.
3 Åpne robots.txt-filen i en teksteditor.
4 Erstatte innholdet i robots.txt-filen med følgende:
Bruker agent: *
Disallow: /
Dette forteller alle Web søkemotorer for å hoppe over alt innhold. Bruker agent betyr søkemotor; "*" som er et wildcard, som betyr alle. Den "/" betyr roten, eller "topp" på ditt nettsted. Derfor, ved å ikke tillate roten, alt innhold på alle sidene på nettstedet - som er hierarkisk "lavere" enn roten - hoppes over.
5 Lagre robots.txt-filen. Hvis webserveren bruker en webside cache, tilbakestille det slik at den nye siden er sendt til søkemotorer når de ber om robots.txt siden.
Hint
- Du kan også selektivt forby noen søkemotorer (som lar Google, men blokkering Bing), eller har søkemotorene indeksere noen sider, men ikke andre. Se robots.txt dokumentasjon for detaljer.