-
검색엔진 최적화(SEO)Web Programming 2021. 9. 29. 11:16반응형
SEO(Search Engine Optimization) : 검색 엔진 최적화
검색엔진 최적화는 Google, Naver 등의 Bot에서 적절한 결과를 크롤링 할 수 있도록 처리하는 작업을 의미한다.
최적화를 위한 방법은 다양한 종류가 있으니 이 포스팅에서는 필요한 부분만 골라서 설명한다.
1. meta 태그의 title 및 description, keywords 설정
가장 중요한 부분이다. title이 명확할수록 검색엔진 봇으로 하여금 특정 키워드에서 높은 우선순위를 부여받을 수 있다.
위와 같이 google을 검색할 경우 title, description이 순서대로 사이트에 출력되는 것을 확인할 수 있다.
2. 하위 URL에 도메인 명시
하위 URL이 봇에 의해 크롤링 될 경우 이 페이지가 상위 도메인과 같은 사이트임을 명시해준다.
<link rel="canonical" href="www.url.com" />
위와 같은 태그를 추가함으로써 설정할 수 있다.
3. Breadcrumb 설정
헨젤과 그레텔의 빵 부스러기에서 유래된 Breadcrumb다. 사용자 혹은 봇이 현재 사이트의 어느 부분에 위치해 있는지를 명시해준다.
위와 같이 UI를 설정해줄 수 있다. SEO 설정에 미치는 영향은 미약할 수 있으나 사용자의 사이트 이탈을 막아주기도 한다는 점에서 설정해줄 필요성이 있다.
4. Robots.txt와 Sitemap.xml
위의 부분들보다 조금 더 봇과 직접적으로 연결되는 항목이다. Robots.txt 설정을 통해 접속 가능한 봇과 접속 가능한 페이지 등을 직접 설정해줄 수 있다. 해당 파일이 없다고 봇이 접속을 할 수 없는 것은 아니지만 우리는 지금 최적화를 진행하고 있는 것이므로 최대한 봇이 편안하게 들어올 수 있는 환경을 만들어 줄 필요가 있다. 기본 형식은 다음과 같다.
User-agent: * Allow: / Sitemap: /sitemap.xml
위와 같이 설정할 경우 모든 크롤링 봇의 접속을 허용하며 모든 페이지로의 접속이 가능하다는 것을 의미한다. 단, Robots.txt의 경우 봇의 접속을 제한하는 안내 표지판일 뿐 무시하고 들어가는 해킹 봇 등을 막을 수는 없으므로 이를 보안성 향상을 위해 쓰는 것은 불가능하다.
Robots.txt 설정이 끝났으면 해당 파일에서 설정해준 경로에 sitemap을 만들어주자. 말 그대로 검색엔진 봇에게 지도를 제공해준다고 할 수 있다. 기본 형식은 다음과 같다.
<?xml version="1.0" encoding="UTF-8"?> <urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9"> <url> <loc>https://www.url.com/</loc> </url> </urlset>
이렇게 페이지를 하나씩 추가하여 현재 사이트에 어떤 페이지들이 존재하는지를 보여줄 수 있다.
반응형'Web Programming' 카테고리의 다른 글
Multi-Tenancy의 개념 (0) 2022.06.27 재고 - 주문 프로세스에서의 동시성 제어 (0) 2022.01.26 Parent Node 클릭 시 Child Node로 인해 정상적으로 이벤트 작동이 하지 않을 때 (0) 2021.09.07 log4j의 개념과 사용법 (0) 2021.01.08 JDBC와 ODBC의 차이 (0) 2020.11.12