Hvordan Block Surphace Scout
Nettstedet administratorer kan bruke "robots.txt" tekstfil i rotmappen deres webserveren til å blokkere Web roboter. Disse Web roboter er automatiserte prosesser som indeksere innhold på Internett i forbindelse med å legge til innhold til søkemotorer og økende eksponering for ditt nettsted. En slik robot er Surphace Scout / 4.0 som indekserer innholdet for AOL innhold anbefaling system. Hvis du ønsker å blokkere Surphace Scout / 4.0 roboten får tilgang til nettstedet, kan du sette opp din egen "robots.txt" filen for å holde det ut.
Bruksanvisning
1 Høyreklikk på skrivebordet, og klikk deretter på "New" og "Text File" for å opprette en tom tekstfil.
2 Høyreklikk på tekstfilen, og klikk "Gi nytt navn." Skriv "robots.txt" som filnavn og trykk "Enter".
3 Dobbeltklikk på "robots.txt" filen for å åpne den.
4 Type "User-agent: Surphace Scout / 4.0" og trykk "Enter".
5 Type "Disallow: /" og trykk "Enter".
6 Klikk på "File" -menyen og klikk "Lagre".
7 Start din FTP-program. Skriv inn FTP-adresse, brukernavn og passord i de aktuelle tekstfeltene og klikk på "Connect".
8 Bla til skrivebordet i den lokale rute i programvinduet FTP. Bla til rotkatalogen på ditt nettsted i serveren ruten, der hjemmesiden din ligger.
9 Dra og slipp "robots.txt" -mappen fra den lokale ruten til serveren ruten for å laste opp filen, blokkerer Surphace Scout / 4.0 Web robot.