Hvordan Block Surphace Scout

Nettstedet administratorer kan bruke "robots.txt" tekstfil i rotmappen deres webserveren til å blokkere Web roboter. Disse Web roboter er automatiserte prosesser som indeksere innhold på Internett i forbindelse med å legge til innhold til søkemotorer og økende eksponering for ditt nettsted. En slik robot er Surphace Scout / 4.0 som indekserer innholdet for AOL innhold anbefaling system. Hvis du ønsker å blokkere Surphace Scout / 4.0 roboten får tilgang til nettstedet, kan du sette opp din egen "robots.txt" filen for å holde det ut.

Bruksanvisning

1 Høyreklikk på skrivebordet, og klikk deretter på "New" og "Text File" for å opprette en tom tekstfil.

2 Høyreklikk på tekstfilen, og klikk "Gi nytt navn." Skriv "robots.txt" som filnavn og trykk "Enter".

3 Dobbeltklikk på "robots.txt" filen for å åpne den.

4 Type "User-agent: Surphace Scout / 4.0" og trykk "Enter".

5 Type "Disallow: /" og trykk "Enter".

6 Klikk på "File" -menyen og klikk "Lagre".

7 Start din FTP-program. Skriv inn FTP-adresse, brukernavn og passord i de aktuelle tekstfeltene og klikk på "Connect".

8 Bla til skrivebordet i den lokale rute i programvinduet FTP. Bla til rotkatalogen på ditt nettsted i serveren ruten, der hjemmesiden din ligger.

9 Dra og slipp "robots.txt" -mappen fra den lokale ruten til serveren ruten for å laste opp filen, blokkerer Surphace Scout / 4.0 Web robot.