티스토리 뷰
[ robots.txt 상세 옵션 설명]
User-agent: * |
모든 검색엔진이 긁어가는 것 모두 막기 |
User-agent: * Disallow: |
모두 허용하기 |
User-agent: * Disallow: /cgi-bin/ Disallow: /tmp/ Disallow: /private/ |
cgi-bin 디렉토리, tmp 디렉토리, private 디렉토리 긁어가는 것만 막기 |
User-agent: BadBot Disallow: / |
배드봇 검색로봇만 긁어가기 제외 |
User-agent: WebCrawler Disallow: |
웹크롤러 검색로봇만 긁어가기 허락 |
robots.txt 파일을 ftp로 올립니다. 최상위 디렉토리에 올려야합니다.
예) http://www.tagin.net/robots.txt ( O )
http://www.tagin.net/test/robots.txt ( X )
* robots.txt 유의사항
1. 사이트는 하나의 "robots.txt" 만을 가질 수 있다
2. "robots.txt" 문자열은 모두 소문자이어야 하며, 공백은 허용 되지 않는다.
3. 최상위 디렉토리의 robots.txt만 읽는다. (다른 디렉토리의 robots.txt는 아무소용이없다)
이 방법 외에도 html 페이지에 메타 태그를 써서 검색엔진을 막을 수 있습니다. |
유의할 점은 위와 같은 방법이 모든 검색엔진을 완전 차단하진 못한다는 걸 염두해두세요.
자세한 사항은 http://www.robotstxt.org/ 참고하시길 바랍니다.
'리눅스(유닉스) > 관리' 카테고리의 다른 글
버젼확인 (0) | 2008.06.22 |
---|---|
403 Forbidden error 생길때 - SELinux 문제 (1) | 2008.06.22 |
awk, sed 예제 (0) | 2008.06.17 |
댓글
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크