[웹] robots.txt

1. 설명

- 웹사이트에서 크롤링할 수 있는 정보 접근 규칙을 정리한 텍스트 파일

- 작성 의무는 없지만 검색엔진 크롤러가 크롤링시 참고함.


2. 사용방법

2.1 robots.txt 파일 만듦.

2.2 robots.txt 파일 규칙 추가

> user-agent : 필수, 그룹당 하나 이상

> disallow : 규칙당 하나 이상 disallow 또는 allow 항목 필요

> allow : 규칙당 하나 이상 allow 또는 disallow 항목 필요

> sitemap : 선택사항

2.3 robots.txt 파일을 사이트 루트에 업로드


3. 예시

> https://hkand.blogspot.com/robots.txt


User-agent: Mediapartners-Google < 애드센스 로봇

Disallow:   < 모두 허용


User-agent: *   < 위 로봇를 제외한 모든 로봇

Disallow: /search   < search 라는 이름을 크롤링 거부

Allow: /   < search 를 제외한 다른 내용은 크롤링 허용


Sitemap: https://hkand.blogspot.com/sitemap.xml < sitemap 알림


4. 참고

- https://developers.google.com/search/docs/crawling-indexing/robots/intro?hl=en&visit_id=638107472745422210-3808386236&rd=2


끝.