Korea Traffic - 온라인 지식 베이스 - 2025-09-04

robots.txt 파일 작성 예시와 실무 적용 가이드

robots.txt 파일은 검색엔진 크롤러가 사이트 내 특정 페이지나 디렉터리에 접근하는 것을 허용하거나 차단하기 위해 사용하는 텍스트 파일입니다. 기본적으로 사이트 루트 디렉터리에 위치해야 하며, 텍스트 편집기(메모장, TextEdit 등)로 작성 후 UTF-8 인코딩으로 저장해야 합니다.

robots.txt 기본 작성 예시

User-agent: *
Disallow: /forbidden/
Sitemap: https://www.example.com/sitemap.xml
  • User-agent: 크롤러 이름(예: Googlebot) 또는 * (모든 크롤러)
  • Disallow: 접근을 차단할 경로
  • Sitemap: 사이트맵 위치 명시(검색엔진이 사이트 구조를 더 잘 이해하도록 도움)

실무 적용 가이드

  1. 작성 시 주의사항

    • 반드시 텍스트 파일(.txt)로 저장
    • 워드 프로세서 사용 금지(예: MS 워드) — 예상치 못한 문자 삽입 위험
    • UTF-8 인코딩 권장
  2. 파일 위치

    • 사이트 루트 디렉터리에 업로드 (예: https://www.example.com/robots.txt)
    • 하위 디렉터리에 두면 적용되지 않음
  3. 규칙 작성 예시

    • 모든 크롤러 접근 차단
      User-agent: *
      Disallow: /
      
    • 특정 크롤러만 허용, 나머지 차단
      User-agent: Googlebot
      Disallow:
      
      User-agent: *
      Disallow: /
      
    • 특정 디렉터리만 차단
      User-agent: *
      Disallow: /private/
      
  4. 테스트 및 검증

    • 구글 서치 콘솔 등에서 robots.txt 테스트 도구를 활용해 규칙이 의도대로 작동하는지 확인
  5. 사이트맵 포함

    • 사이트맵 경로를 명시하면 크롤러가 사이트 구조를 효율적으로 파악 가능

robots.txt 파일은 크롤러가 사이트를 과도하게 요청해 서버에 부담을 주는 것을 방지하고, 검색엔진에 노출시키고 싶지 않은 페이지를 관리하는 데 필수적입니다.

인터넷 이미지

Korea Traffic는 싱가포르에서 최고의 웹사이트 트래픽 서비스를 제공합니다. 우리는 웹사이트 트래픽, 데스크탑 트래픽, 모바일 트래픽, 구글 트래픽, 검색 트래픽, 전자상거래 트래픽, 유튜브 트래픽, 틱톡 트래픽 등 다양한 트래픽 서비스를 고객에게 제공합니다. 저희 웹사이트는 100% 고객 만족률을 자랑하므로, 대량의 SEO 트래픽을 온라인으로 자신 있게 구매하실 수 있습니다. 월 49,500 KRW만으로 즉시 웹사이트 트래픽을 증가시키고, SEO 성과를 개선하며, 매출을 증대시킬 수 있습니다!

트래픽 패키지 선택에 어려움이 있으신가요? 저희에게 연락주시면, 직원이 도움을 드리겠습니다.

무료 상담

무료 상담 고객 지원

어떤 플랜을 선택해야 할지 고민되시나요? 오른쪽 양식에 문의 내용을 남겨 주시면 친절하게 안내해 드리겠습니다.

Fill the
form