ABOUT ME

-

Today
-
Yesterday
-
Total
-
  • 검색엔진 최적화(SEO)
    Web Programming 2021. 9. 29. 11:16
    반응형
    SEO(Search Engine Optimization) : 검색 엔진 최적화

     

    검색엔진 최적화는 Google, Naver 등의 Bot에서 적절한 결과를 크롤링 할 수 있도록 처리하는 작업을 의미한다.

    최적화를 위한 방법은 다양한 종류가 있으니 이 포스팅에서는 필요한 부분만 골라서 설명한다.

     

    1. meta 태그의 title 및 description, keywords 설정

    가장 중요한 부분이다. title이 명확할수록 검색엔진 봇으로 하여금 특정 키워드에서 높은 우선순위를 부여받을 수 있다.

    위와 같이 google을 검색할 경우 title, description이 순서대로 사이트에 출력되는 것을 확인할 수 있다.

     

    2. 하위 URL에 도메인 명시

    하위 URL이 봇에 의해 크롤링 될 경우 이 페이지가 상위 도메인과 같은 사이트임을 명시해준다.

    <link rel="canonical" href="www.url.com" />

    위와 같은 태그를 추가함으로써 설정할 수 있다.

     

    3. Breadcrumb 설정

    헨젤과 그레텔의 빵 부스러기에서 유래된 Breadcrumb다. 사용자 혹은 봇이 현재 사이트의 어느 부분에 위치해 있는지를 명시해준다.

    위와 같이 UI를 설정해줄 수 있다. SEO 설정에 미치는 영향은 미약할 수 있으나 사용자의 사이트 이탈을 막아주기도 한다는 점에서 설정해줄 필요성이 있다.

     

    4. Robots.txt와 Sitemap.xml

    위의 부분들보다 조금 더 봇과 직접적으로 연결되는 항목이다. Robots.txt 설정을 통해 접속 가능한 봇과 접속 가능한 페이지 등을 직접 설정해줄 수 있다. 해당 파일이 없다고 봇이 접속을 할 수 없는 것은 아니지만 우리는 지금 최적화를 진행하고 있는 것이므로 최대한 봇이 편안하게 들어올 수 있는 환경을 만들어 줄 필요가 있다. 기본 형식은 다음과 같다.

    User-agent: *
    Allow: /
    Sitemap: /sitemap.xml

    위와 같이 설정할 경우 모든 크롤링 봇의 접속을 허용하며 모든 페이지로의 접속이 가능하다는 것을 의미한다. 단, Robots.txt의 경우 봇의 접속을 제한하는 안내 표지판일 뿐 무시하고 들어가는 해킹 봇 등을 막을 수는 없으므로 이를 보안성 향상을 위해 쓰는 것은 불가능하다.

     

    Robots.txt 설정이 끝났으면 해당 파일에서 설정해준 경로에 sitemap을 만들어주자. 말 그대로 검색엔진 봇에게 지도를 제공해준다고 할 수 있다. 기본 형식은 다음과 같다.

    <?xml version="1.0" encoding="UTF-8"?>
    <urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
        <url>
            <loc>https://www.url.com/</loc>
        </url>
    </urlset>

    이렇게 페이지를 하나씩 추가하여 현재 사이트에 어떤 페이지들이 존재하는지를 보여줄 수 있다.

    반응형
Designed by Tistory.