LJC.LOG
November 3, 2023

웹사이트 등록 후 robots, sitemap 추가

웹사이트를 구글, 네이버와 같은 검색 엔진에 등록한 후, SEO(검색 엔진 최적화) 작업의 일환으로 robots.txt와 sitemap.xml을 추가하는 것이 중요합니다.

이 두 파일은 검색 엔진의 웹 크롤러가 당신의 웹사이트를 올바르게 이해하고 인덱싱할 수 있도록 도와줍니다.

1) robots.txt 파일 설정

robots.txt 파일은 웹 크롤러가 웹사이트를 어떻게 크롤링할지 지시하는 파일입니다. 

이를 통해 검색 엔진에게 어떤 페이지를 크롤링할 수 있는지, 어떤 페이지를 크롤링하면 안 되는지를 설정할 수 있습니다.

작성방법

아래와 같은 구조를 가집니다.

User-agent: 허용할 검색엔진 ( * 는 모든 검색 엔진 봇을 대상으로 합니다)

Disallow(or Allow) (허용할 url) ( /는 모든 페이지에 대한 크롤링을 허용합니다)

Sitemap : https://www.yourwebsite.com/sitemap.xml은 사이트맵의 URL을 지정하여 검색 엔진이 사이트맵을 찾을 수 있도록 합니다.

저는 모두 허용으로 설정하였습니다.

User-agent: *

Allow:/

Sitemap: https://www.develop-blog.pe.kr/sitemap.xml

민감 정보 보호: 특정 페이지나 디렉토리를 검색 엔진이 크롤링하지 못하게 하려면 다음과 같이 설정합니다

User-agent: *

Disallow: /private/

Disallow: /secret-page.html

Sitemap: https://www.yourwebsite.com/sitemap.xml

  • Disallow: /private/는 /private/ 디렉토리의 모든 페이지에 대한 크롤링을 금지합니다.
  • Disallow: /secret-page.html은 특정 페이지의 크롤링을 금지합니다.

1. 위의 설정을 포함한 텍스트 파일을 생성하고, 파일 이름을 robots.txt로 지정합니다.

2.루트 디렉토리에 배포: 웹사이트의 루트 디렉토리에 robots.txt 파일을 업로드합니다.

예를 들어, 웹사이트 주소가 https://www.yourwebsite.com이라면 https://www.yourwebsite.com/robots.txt에서 확인할 수 있어야 합니다.

확인 방법: 브라우저에서 https://www.yourwebsite.com/robots.txt에 접속하여 설정이 제대로 적용되었는지 확인합니다.

robots.txt 작성방법

그 후 주소/robots.txt 실행 시 아래처럼 나오면 적용완료 입니다.

robots.txt 확인방법

2) sitemap.xml 파일 설정


다음은 sitemap.xml은 내 웹사이트의 목차라고 생각하시면 됩니다.

sitemap.xml 파일은 웹사이트의 구조를 검색 엔진에 제공하여 페이지가 더 잘 인덱싱될 수 있도록 도와줍니다.

검색 엔진은 사이트맵을 통해 사이트의 중요한 페이지를 발견하고 크롤링할 수 있습니다.

저는 사이트맵생성 사이트에서 sitemap.xml 을 생성하였으니 참고하시기 바랍니다.

생성된 파일도 위와 마찬가지로 루트디렉토리에 넣고 웹주소/sitemap.xml 가 잘 나오는지 확인합니다.

그 후 Google search console에 접속하셔서 Sitemaps 탭에 추가하시면 성공입니다.

사이트맵 등록방법

3) 마무리

robots.txt와 sitemap.xml 파일을 적절히 설정하면 검색 엔진 크롤러가 웹사이트를 효과적으로 탐색하고 인덱싱할 수 있습니다.

이를 통해 검색 결과에서의 가시성을 높이고, 웹사이트의 SEO 성과를 개선할 수 있습니다.

추가적인 질문이나 도움이 필요하면 언제든지 댓글을 남겨주세요.

읽어주셔서 감사합니다! 😊

Related Posts